簡要描述:ErgoLAB人機環(huán)境同步云平臺,是基于云架構的專業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺,是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過對人、機器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進行人機交互評估以及人因與工效學的智能評價。
詳細介紹
品牌 | 津發(fā)科技 | 產(chǎn)地類別 | 國產(chǎn) |
---|---|---|---|
應用領域 | 交通,航天,汽車,綜合 |
ErgoLAB人機環(huán)境同步云平臺,是基于云架構的專業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺,是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過對人、機器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進行人機交互評估以及人因與工效學的智能評價。
平臺以人機環(huán)境多模態(tài)數(shù)據(jù)同步技術為基礎,突出智能化、可穿戴的特點,采用國內自主研發(fā)技術,結合VR三維虛擬現(xiàn)實與環(huán)境模擬技術、動作捕捉技術、人體建模與仿真技術、腦認知神經(jīng)科學與電生理技術、視覺追蹤技術、行為分析技術、面部表情與狀態(tài)識別技術等,客觀定量化分析人機環(huán)境交互影響的關系,提升縱向研究的深度與橫向研究的外延性。平臺與許多認知神經(jīng)科學、人因工程、 人工智能領域科研實驗設備相兼容,提供了人因工程與工效學、人機交互與人工智能、心理學與認知科學以及神經(jīng)網(wǎng)絡、機器學習等研究內容的解決方案。
平臺從基于云端的項目管理、實驗設計、數(shù)據(jù)同步采集、信號處理與分析到綜合統(tǒng)計與輸出可視化報告,涵蓋整個研究流程。對于特殊領域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。
ErgoLAB數(shù)據(jù)與綜合統(tǒng)計分析模塊含多維度人-機-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析以及可視化、行為觀察、面部表情、動作姿態(tài)傷害評估與工效學分析、交互行為、時空行為、車輛與駕駛行為、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析,具備專門的信號處理與開放式信號處理接口,可直接導出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。
平臺通過SDK/API/TTL等廣泛的數(shù)據(jù)接口進行第三方設備或者數(shù)據(jù)同步,同時可以直接導入外部數(shù)據(jù),與系統(tǒng)內數(shù)據(jù)進行同步分析,支持定制開發(fā)。
平臺配備在線資源中心,內含大量豐富的技術與文獻資料,包括在線 說明書、功能培訓視頻、技術、參數(shù)算法解釋、操作手冊、演示DEMO等,方便研究者能夠更快速的掌握大量實驗技能與知識。
平臺可以進行實驗室研究、移動終端研究、虛擬仿真以及真實戶外環(huán)境的研究。云實驗設計模塊具備多時間軸、隨機化呈現(xiàn)等功能、可以創(chuàng)建復雜的實驗設計,支持任何類型的刺激材料,包括問卷、量表與范式、聲光電刺激、實時API編碼/TTL事件標記、多媒體刺激編輯,在線網(wǎng)站和手機應用程序,以及所有的原型設計材料,也支持與如下刺激實時同步采集:如場景攝像機,軟件,游戲,VR,AR程序等。兼容第三方刺激編譯軟件,如E-prime,Superlab,Tobii Pro Lab等。
平臺采用主客觀結合多維度數(shù)據(jù)驗證的方法,同步大腦認知數(shù)據(jù)、視覺數(shù)據(jù)、生理信號數(shù)據(jù)、行為觀察、肢體動作與面部表情數(shù)據(jù)、生物力學數(shù)據(jù)、人機交互數(shù)據(jù)、多類型時空行為數(shù)據(jù)采集與環(huán)境數(shù)據(jù)等。
在標準的實驗室環(huán)境下,以桌面或移動終端為載體呈現(xiàn)的刺激材料,包括圖片、文本、視頻、音頻、網(wǎng)頁刺激、交互程序、錄制屏幕等,可實時預覽、自由拖拽、一鍵導入多刺激材料。實時同步采集眼動、腦電、近紅外腦成像以及電生理指標等高精度多模態(tài)測量數(shù)據(jù)。
支持搭建多類型虛擬現(xiàn)實交互設備與場景,包括頭戴式虛擬現(xiàn)實系統(tǒng)、CAVE大型沉浸式虛擬現(xiàn)實交互系統(tǒng)以及多人交互系統(tǒng)等。在虛擬環(huán)境中通過模擬真實世界交互模式,可以添加視覺、聽覺、觸覺以及重力等真實感受模擬;在虛擬現(xiàn)實的環(huán)境下,實時同步采集人-機-環(huán)境數(shù)據(jù)并進行定量化分析與評價,包括人員在虛擬環(huán)境下的空間定位、交互行為、腦電、眼動、生理、生物力學、動作捕捉、面部表情等數(shù)據(jù)。
提供逼真道路交通仿真場景、真實感駕駛模擬座艙,精確的駕駛操縱傳感器輸出,滿足研究所需的交通場景編輯系統(tǒng),并且具備定制和升級能力,支持在各種道路交通和駕駛行為研究中實時同步采集駕駛人-車輛-道路-環(huán)境的客觀、定量化數(shù)據(jù)。
平臺能夠結合光、聲、振動、微氣候等多種環(huán)境模擬條件下,同步采集個體在模擬環(huán)境下進行操作任務時的多模態(tài)客觀數(shù)據(jù)反應。
平臺采用可穿戴測量技術、移動終端采集技術以及離線采集與數(shù)據(jù)儲存,于真實的現(xiàn)場環(huán)境研究。
人機工程、人的失誤與系統(tǒng)安全、人機工效學、工作場所與工效學負荷等
從安全的角度和著眼點,運用人機工程學的原理和方法去解決人機結合面安全問題
人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設計、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設計、人機交互對用戶體驗的影響
研究如何通過城市規(guī)劃與建筑設計來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過ErgoLAB采集和分析消費者的生理、表情、行為等數(shù)據(jù),了解消費者的認知加工與決策行為,找到消費者行為動機,從而產(chǎn)生恰當?shù)臓I銷策略使消費者產(chǎn)生留言意向及留言行為
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關注微信