ErgoVR駕駛行為與智能座艙虛擬現實實驗室是北京津發(fā)科技股份有限公司基于“人-車-路環(huán)境"和“人-信息-物理"系統(tǒng)理論,自主創(chuàng)新配置的針對交通駕駛與智能座艙領域的科學性智能座艙虛擬現實測評研究方案。方案以ErgoLAB人車路環(huán)境同步云平臺為核心,并結合先進的3D虛擬現實仿真技術,通過實時同步采集人、車輛以及道路環(huán)境的數據,分析不同環(huán)境、不同任務下駕駛員及乘員的駕駛行為、認知負荷、情緒喚醒、疲勞性、舒適度等情況,以完成對駕駛行為、以及座艙設計、HMI設計、智能系統(tǒng)設計、交互方式等的設計評估與優(yōu)化。
ErgoVR駕駛行為與智能座艙虛擬現實實驗室由虛擬現實仿真系統(tǒng)、ErgoVR人因分析引擎、人車路環(huán)境多維度數據同步采集系統(tǒng)、人車路環(huán)境多維度數據分析與人工智能應用平臺等部分組成。人車路環(huán)境多維度數據同步采集系統(tǒng)包括ErgoLAB人車路環(huán)境同步云平臺、生理記錄系統(tǒng)、腦電測量系統(tǒng)、眼動追蹤系統(tǒng)、近紅外腦成像系統(tǒng)、生物力學測量系統(tǒng)、動作捕捉系統(tǒng)、時空行為采集系統(tǒng)、人體振動工效學分析系統(tǒng)、物理環(huán)境測試系統(tǒng)等。人車路環(huán)境多維度數據同步分析系統(tǒng)與人工智能應用平臺包括ErgoLAB人機工程分析系統(tǒng)、時空行為分析系統(tǒng)、交互行為分析系統(tǒng)、動作姿態(tài)工效學分析系統(tǒng)、EEG腦電分析模塊、眼動高級分析模塊、行為觀察分析模塊、面部表情追蹤與分析模塊、HRV心率變異性分析模塊、EDA皮電反應分析模塊、EMG肌電分析模塊、RESP呼吸分析模塊、General通用信號分析模塊等。
ErgoVR人因分析引擎,可直接對接智能座艙虛擬現實原型,直接讀取原型源代碼,自動識別原型各部分組件,完整保留參與者與原型間交互數據,可用于針對智能座艙HMI設計、駕駛行為研究等方向。
適應未來座艙智能化趨勢,可將語音、手勢、眼控、情感、腦機等新型交互方式集成在虛擬現實駕駛環(huán)境中,并完成對于多模態(tài)人機交互方式的測評和驗證。
采用自主研發(fā)技術,可直接對接虛擬現實HMI原型,讀取原型源代碼,基于高保真交互原型進行人機交互數據采集與分析,將測評結果快速反饋到設計中,實現HMI設計的迭代優(yōu)化。
系統(tǒng)可采集在虛擬現實環(huán)境中的HMI人機交互數據,如手指的點擊、滑動,語音、手勢、眼控交互的事件等,并結合眼動、生理、腦電等多維度數據進行定量化分析,從感知、決策、行為等不同階段對HMI進行測評。
ErgoLAB人機交互測評系統(tǒng)兼容傳統(tǒng)的問卷量表等主觀評價方法,并將主觀評估結果與眼動、生理、腦電、行為、交互、動作姿態(tài)等客觀數據同步,提供了全面的數據指標體系。
可實現人、機、環(huán)境數據的實時同步采集與數據可視化,客觀定量化分析人-機-路-環(huán)境的交互影響機理及其內在因果關系。
ErgoLAB人機交互測評系統(tǒng)針對多維度數據源開發(fā)有專業(yè)的信號處理與數據分析模塊,實現數據的一鍵式批量化處理,并可結合機器學習算法實現人員的狀態(tài)識別。