ErgoAI?人因智能實(shí)驗(yàn)室
ErgoBOT?具身智能實(shí)訓(xùn)室
ErgoBOT?具身智能實(shí)訓(xùn)室
ErgoAI?人因智能基礎(chǔ)實(shí)訓(xùn)室
ErgoAI?人因智能基礎(chǔ)實(shí)訓(xùn)室
產(chǎn)品概述:
ErgoAI? 具身智能實(shí)訓(xùn)系統(tǒng)是專為職業(yè)教育領(lǐng)域打造的先進(jìn)教學(xué)與創(chuàng)新平臺。它以具身智能(Embodied AI) 為核心,深度融合多模態(tài)數(shù)據(jù)感知、環(huán)境認(rèn)知與理解、智能決策與規(guī)劃以及精準(zhǔn)運(yùn)動控制等關(guān)鍵技術(shù)。系統(tǒng)構(gòu)建了從多模態(tài)數(shù)據(jù)感知、實(shí)時(shí)認(rèn)知、智能決策到物理世界精準(zhǔn)執(zhí)行的完整閉環(huán)技術(shù)鏈路。該平臺旨在培養(yǎng)學(xué)生掌握賦予機(jī)器人“身體”與“環(huán)境交互”能力的下一代人工智能技術(shù),為智能制造、智慧物流、服務(wù)機(jī)器人、特種作業(yè)等領(lǐng)域輸送具備實(shí)體交互能力的AI工程人才。
系統(tǒng)組成:
(1)多模態(tài)人機(jī)交互實(shí)訓(xùn)平臺
提供從數(shù)據(jù)集采集、多模態(tài)數(shù)據(jù)同步感知、模型訓(xùn)練、決策與推演、以及模擬應(yīng)用控制等全流程功能,可提供機(jī)器人狀態(tài)實(shí)時(shí)監(jiān)控、數(shù)據(jù)記錄與分析等功能;平臺提供具身智能數(shù)據(jù)集和具身智能模型,可對接多樣化具身智能物理載體進(jìn)行靈活部署和應(yīng)用。
(2)多模態(tài)具身智能數(shù)據(jù)采集實(shí)訓(xùn)套件:
虛擬現(xiàn)實(shí)具身智能數(shù)據(jù)采集設(shè)備套件、光學(xué)/慣性動作捕捉系統(tǒng)、高精度肌電傳感器套件、行為觀察系統(tǒng)等實(shí)訓(xùn)套件,包含高精度攝像頭、人體姿態(tài)識別模塊。
設(shè)備品類
設(shè)備名稱 | 設(shè)備特點(diǎn) |
ErgoVR HMD可穿戴行走虛擬現(xiàn)實(shí)實(shí)訓(xùn)室 | 提供沉浸式的虛擬現(xiàn)實(shí)環(huán)境,模擬真實(shí)世界中的行走體驗(yàn)。實(shí)訓(xùn)室包括頭戴顯示器、運(yùn)動追蹤裝置、力學(xué)手套、動作捕捉設(shè)備,以及系列虛擬人因測量設(shè)備組成。該系統(tǒng)的核心優(yōu)勢在于其沉浸感強(qiáng)烈,能夠提供完全自然的狀態(tài)下的行走虛擬現(xiàn)實(shí)技術(shù),進(jìn)行人類行為研究并采集數(shù)據(jù)進(jìn)行定量分析,以獲得更真實(shí)的結(jié)果。它支持完全浸入式的虛擬現(xiàn)實(shí)體驗(yàn),允許用戶在不受限制的情況下自由行走,模擬真實(shí)世界的行為,從而采集到更加真實(shí)的數(shù)據(jù)。 |
Mars光學(xué)動作捕捉相機(jī) | Mars系列動作捕捉鏡頭采用紅外攝像頭捕捉反光標(biāo)識點(diǎn),能夠采集并生成精準(zhǔn)、實(shí)時(shí)的動作信息,包括三維空間XYZ坐標(biāo)、六自由度(6DoF)、關(guān)節(jié)角度、偏航角(Yaw)、橫搖角(Roll)、俯仰角(Pitch)、歐拉角等數(shù)據(jù),為機(jī)器人/無人機(jī)的位姿控制、運(yùn)動規(guī)劃提供連貫、流暢的動作數(shù)據(jù)基礎(chǔ)。同時(shí),系統(tǒng)可進(jìn)行二次開發(fā)。 |
Xsens MVN Link慣性動作捕捉儀 | Xsens Link高端運(yùn)動捕捉套裝,該套裝由17個傳感器組成,傳感器被安裝在緊身的萊卡材質(zhì)服裝上,可以提供高質(zhì)量的數(shù)據(jù)記錄。Xsens Link的20毫秒低延遲特性,實(shí)時(shí)應(yīng)用程序和實(shí)時(shí)傳輸,同時(shí)具有低延遲率保證數(shù)據(jù)捕獲和處理的時(shí)間非常短,可實(shí)時(shí)反饋和精確同步的虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)、動畫制作、游戲開發(fā)以及體育訓(xùn)練等領(lǐng)域?qū)嵱?xùn)教學(xué)。 |
ErgoLAB全身表面肌電測試儀 | 全身表面肌電能夠同時(shí)采集多個肌肉群及全身的肌電信號,可進(jìn)行小肌群高密度信號檢測(2~8通道)、大肌群多通道信號檢測(8~16通道)、以及全身表面肌電信號檢測(16通道及以上),可搭配動作捕捉傳感器,通過多個電極進(jìn)行復(fù)雜運(yùn)動的肌肉用力分析實(shí)訓(xùn)教學(xué)。 |
便攜式行為觀察設(shè)備 | ErgoLAB便攜式行為觀察系統(tǒng)是實(shí)時(shí)行為編碼和標(biāo)準(zhǔn)行為分析工具。系統(tǒng)通過行為編碼體系,采用定量觀察記錄的方式來實(shí)現(xiàn)結(jié)構(gòu)化和系統(tǒng)化的行為觀察,對觀察內(nèi)容進(jìn)行分類和量化編碼。移動終端版本結(jié)合便攜性手持設(shè)備,可以在實(shí)訓(xùn)教學(xué)現(xiàn)場進(jìn)行實(shí)時(shí)行為編碼記錄、分析與統(tǒng)計(jì)。 |
(3)具身智能機(jī)器本體
平臺直接對接并控制多樣化的具身智能終端設(shè)備,包含智能機(jī)器人、工業(yè)機(jī)械臂、機(jī)器狗等,可拓展其他自定義設(shè)備:通過開放的SDK/API接口,可靈活
接入并提供控制程序的第三方具身智能機(jī)器
平臺應(yīng)用:
l 機(jī)器人技術(shù)應(yīng)用/智能控制技術(shù)方向:學(xué)習(xí)移動機(jī)器人自主導(dǎo)航與避障技術(shù),實(shí)現(xiàn)智能倉儲環(huán)境中的物料運(yùn)輸
l 人工智能應(yīng)用技術(shù)方向:開發(fā)基于視覺的物體識別與機(jī)械臂靈巧抓取系統(tǒng),應(yīng)用于自動化分揀線
l 機(jī)電一體化技術(shù)/智能制造方向:構(gòu)建人機(jī)協(xié)作(HRC)工作站原型,實(shí)現(xiàn)機(jī)器人與操作員安全、高效地協(xié)同完成裝配任務(wù)
l 物聯(lián)網(wǎng)應(yīng)用技術(shù)方向: 開發(fā)智能巡檢機(jī)器人系統(tǒng),應(yīng)用于機(jī)房或智慧園區(qū),實(shí)現(xiàn)環(huán)境監(jiān)測與異常報(bào)警
l 服務(wù)機(jī)器人開發(fā)方向:設(shè)計(jì)并實(shí)現(xiàn)一個簡易的服務(wù)機(jī)器人原型,具備迎賓導(dǎo)覽、物品遞送等基礎(chǔ)功能
ErgoLAB多模態(tài)同步方案:
整體概述
ErgoLAB人機(jī)環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時(shí)鐘同步技術(shù),平臺可完成完整的實(shí)驗(yàn)和測評流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測試和大數(shù)據(jù)管理。
ErgoLAB人機(jī)環(huán)境同步平臺采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗(yàn)證的方法,數(shù)據(jù)實(shí)時(shí)同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計(jì)算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價(jià)、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動終端人機(jī)交互行為數(shù)據(jù)以及對應(yīng)的手指軌跡操作行為如點(diǎn)擊、縮放、滑動等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時(shí)空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時(shí)空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實(shí)時(shí)同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。

ErgoAI人因智能:
將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實(shí)驗(yàn)環(huán)境不會受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機(jī)-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實(shí)人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實(shí)驗(yàn)全流程的功能模塊,包括項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計(jì)和可視化報(bào)告,結(jié)合ErgoAI人因智能邊緣計(jì)算平臺為多模態(tài)人機(jī)環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機(jī)環(huán)境同步平臺和ErgoAI人因智能邊緣計(jì)算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實(shí)驗(yàn)結(jié)果的信效度,同時(shí)節(jié)省了研究的人力、物力、時(shí)間,提高了研究與測評的整體效率。


基于ErgoAI人因智能多元時(shí)序算法底座與人因工程人機(jī)環(huán)境數(shù)據(jù)庫,構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實(shí)現(xiàn)對人員狀態(tài)的精準(zhǔn)實(shí)時(shí)評估與預(yù)警,如負(fù)荷狀態(tài)、應(yīng)激狀態(tài)、疲勞狀態(tài)、情景意識和注意能力等。
Kingfar公司介紹:
北京津發(fā)科技股份有限公司(津發(fā)科技)是專精特新“小巨人” ,新一輪第一批專精特新重點(diǎn)“小巨人”、知識產(chǎn)權(quán)優(yōu)勢企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設(shè)計(jì)院有限公司等新型科技研發(fā)機(jī)構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學(xué)研深度協(xié)同育人平臺、蘇州市重點(diǎn)實(shí)驗(yàn)室、湖南省工程實(shí)驗(yàn)室、山東省工程研究中心等多個科技創(chuàng)新平臺。
津發(fā)科技承擔(dān)和參與了多項(xiàng)國家重點(diǎn)研發(fā)計(jì)劃、工信部高質(zhì)量發(fā)展專項(xiàng)、國家自然科學(xué)基金等課題基金項(xiàng)目。擔(dān)任全國信標(biāo)委XR擴(kuò)展現(xiàn)實(shí)標(biāo)準(zhǔn)化工作組副組長單位,工信部元宇宙標(biāo)準(zhǔn)化工作組關(guān)鍵技術(shù)組聯(lián)合組長單位;主持和參編國際、國家、行業(yè)和團(tuán)體標(biāo)準(zhǔn)30余項(xiàng)。
津發(fā)科技創(chuàng)新研發(fā)了國產(chǎn)化自主可控的人因工程與人因智能邊緣計(jì)算系列信創(chuàng)產(chǎn)品與技術(shù);通過了歐洲CE、美國FCC、歐盟ROHS,以及ISO9001、ISO14001、ISO45001等多項(xiàng)國際認(rèn)證。累計(jì)榮獲30余項(xiàng)省部級新技術(shù)新產(chǎn)品認(rèn)證和多項(xiàng)省部級科學(xué)技術(shù)獎勵;申請發(fā)明專利超過530項(xiàng),已授權(quán)120余項(xiàng)國際和國家發(fā)明專利、150余項(xiàng)國際和國家注冊商標(biāo)、130余項(xiàng)國家軟件著作權(quán);已服務(wù)全國高等院校和裝備科技工業(yè)科研院所應(yīng)用示范,并已支撐科研學(xué)者和科技工作者發(fā)表中英文學(xué)術(shù)論文超過1100篇。
報(bào)價(jià):面議
已咨詢143次ErgoLAB人因與工效學(xué)
報(bào)價(jià):面議
已咨詢130次ErgoLAB動作姿態(tài)工效學(xué)分析系統(tǒng)
報(bào)價(jià):面議
已咨詢104次ErgoHCI人機(jī)交互實(shí)驗(yàn)室
報(bào)價(jià):面議
已咨詢113次行為觀察與面部表情
報(bào)價(jià):面議
已咨詢98次ErgoLAB人因與工效學(xué)
報(bào)價(jià):面議
已咨詢106次行為觀察與面部表情
報(bào)價(jià):面議
已咨詢119次行為觀察與面部表情
津發(fā)科技自主研發(fā)ErgoSIM航空天訓(xùn)練系統(tǒng),以其先進(jìn)的技術(shù)、高度的沉浸感和強(qiáng)大的評估功能,為航天員培訓(xùn)提供了一個創(chuàng)新的解決方案。通過該系統(tǒng),受訓(xùn)者可以在安全的環(huán)境中練習(xí)航天操作技能,提高應(yīng)對復(fù)雜航天任務(wù)的能力。同時(shí),系統(tǒng)為研究者提供了豐富的數(shù)據(jù)支持,有助于深入分析受訓(xùn)者的表現(xiàn),優(yōu)化訓(xùn)練方案。隨著技術(shù)的不斷發(fā)展,該系統(tǒng)有望在未來的航天員培訓(xùn)中發(fā)揮更大的作用,為我國的航天事業(yè)貢獻(xiàn)力量。
ErgoUE? 醫(yī)療器械可用性測試實(shí)驗(yàn)室是基于IEC 62366-1、FDA 人因工程指南、醫(yī)療器械可用性工程注冊審查指導(dǎo)原則等國際與國內(nèi)核心標(biāo)準(zhǔn)構(gòu)建的專業(yè)實(shí)驗(yàn)室,核心目標(biāo)是通過規(guī)范化的可用性工程工作,保障醫(yī)療器械使用的安全有效性,為“形成性可用性測試”“總結(jié)性可用性測試”提供高還原度的模擬測試條件,助力醫(yī)療器械企業(yè)規(guī)避人因設(shè)計(jì)缺陷,幫助第三方檢測機(jī)構(gòu)完成最終產(chǎn)品驗(yàn)證。
ErgoAI? FingerTrajectory手指軌跡分析儀,以圖像識別技術(shù)為核心,結(jié)合ErgoAI人因智能算法,可基于實(shí)物產(chǎn)品以及桌面終端和移動終端原型、智能座艙HMI原型,精確追蹤用戶人機(jī)交互過程中的手指軌跡數(shù)據(jù),可用于人機(jī)交互過程中效率、效果及用戶滿意度測評等。
ErgoAI?智慧健康醫(yī)療實(shí)驗(yàn)室聚焦醫(yī)療器械人因設(shè)計(jì)、神經(jīng)功能重建與數(shù)字療法前沿研究,面向醫(yī)療裝備可用性驗(yàn)證、腦機(jī)接口臨床轉(zhuǎn)化、健康監(jiān)測及老齡化健康管理等科研與產(chǎn)業(yè)化需求,構(gòu)建覆蓋“場景模擬-多模態(tài)感知-智能分析-臨床驗(yàn)證”全鏈條的科研與應(yīng)用平臺。
ErgoExpert?人員能力測評與訓(xùn)練實(shí)驗(yàn)室專注于人員核心勝任力建模、多模態(tài)測評與神經(jīng)行為干預(yù)技術(shù)的科研與應(yīng)用創(chuàng)新,面向各行業(yè)人員選拔訓(xùn)練、健康老齡化認(rèn)知管理及人因安全等領(lǐng)域,構(gòu)建覆蓋“能力建模-多模態(tài)測評-神經(jīng)反饋訓(xùn)練-人才畫像”全鏈條的科研與產(chǎn)業(yè)化平臺。實(shí)驗(yàn)室融合量表問卷主觀測評、認(rèn)知訓(xùn)練實(shí)驗(yàn)范式、VR測評訓(xùn)練方案、神經(jīng)調(diào)控方案、行為分析與人工智能技術(shù),為特殊崗位人員選拔、康復(fù)健康管理、作業(yè)
ErgoBOT? 具身智能實(shí)驗(yàn)室是面向智能機(jī)器人、工業(yè)互聯(lián)、健康服務(wù)等前沿領(lǐng)域構(gòu)建的科研與應(yīng)用創(chuàng)新實(shí)驗(yàn)室,深度融合多模態(tài)感知、環(huán)境交互與具身決策技術(shù),支撐智能體在真實(shí)場景中的感知、推理、決策與協(xié)同行為研究。實(shí)驗(yàn)室提供“感知-決策-交互-應(yīng)用”全流程研究服務(wù),配備多形態(tài)機(jī)器人系統(tǒng)、高精度人機(jī)環(huán)傳感設(shè)備與邊緣計(jì)算終端,為智能制造、智慧服務(wù)、醫(yī)療康復(fù)等產(chǎn)業(yè)提供關(guān)鍵技術(shù)支撐與系統(tǒng)解決方案。
ErgoHCI?多模態(tài)人機(jī)交互與腦機(jī)接口實(shí)驗(yàn)室,致力于打造面向多模態(tài)人機(jī)交互、腦機(jī)交互的一體化科研與應(yīng)用平臺。實(shí)驗(yàn)室構(gòu)建了覆蓋“信號感知-算法研發(fā)-系統(tǒng)驗(yàn)證-行業(yè)應(yīng)用”的全鏈路研究環(huán)境,全面支持人機(jī)交互、康復(fù)工程、智能裝備、新一代信息技術(shù)等領(lǐng)域的創(chuàng)新研究與產(chǎn)業(yè)轉(zhuǎn)化。