ErgoVR建筑設(shè)計(jì)與環(huán)境行為人因研究實(shí)驗(yàn)室符合建筑領(lǐng)域的研究需求及特點(diǎn),能夠直接對(duì)接建筑領(lǐng)域常用建模軟件,便于研究人員推進(jìn)實(shí)驗(yàn)。解決方案可用于領(lǐng)域內(nèi)諸多研究中,例如建筑空間設(shè)計(jì)、智慧建筑研究、人居環(huán)境舒適性研究等。方案是相關(guān)研究人員的一個(gè)有力幫手,能夠幫助研究人員在不同的研究階段的工作。方案適用于項(xiàng)目的前期、中期、后期各個(gè)階段的研究需求。
ErgoVR建筑設(shè)計(jì)與環(huán)境行為人因研究實(shí)驗(yàn)室,基于虛擬現(xiàn)實(shí)技術(shù),實(shí)現(xiàn)在3D虛擬的場(chǎng)景中進(jìn)行相應(yīng)的任務(wù)測(cè)試,并同步采集人-機(jī)-環(huán)境多模態(tài)數(shù)據(jù),進(jìn)行相應(yīng)的人因測(cè)評(píng)。
1.虛擬現(xiàn)實(shí)系統(tǒng)ErgoVR虛擬現(xiàn)實(shí)系統(tǒng)包括CAVE式虛擬現(xiàn)實(shí)系統(tǒng)、可穿戴式虛擬現(xiàn)實(shí)系統(tǒng)、多人交互虛擬現(xiàn)實(shí)系統(tǒng)以及面向聲光仿真的虛擬現(xiàn)實(shí)系統(tǒng)等不同類(lèi)型,研究人員能夠根據(jù)實(shí)際需求及各系統(tǒng)特點(diǎn)進(jìn)行選擇。
ErgoVR人因分析引擎適用于虛擬環(huán)境中對(duì)系統(tǒng)、界面、產(chǎn)品、建筑等設(shè)計(jì)進(jìn)行測(cè)評(píng),可直接對(duì)接Unity、Unreal等虛擬現(xiàn)實(shí)引擎,能夠完整保留人員與原型之間的交互數(shù)據(jù),實(shí)現(xiàn)基于虛擬原型的多維度人因數(shù)據(jù)同步采集、分析以及可視化。
3.人機(jī)環(huán)境多模態(tài)數(shù)據(jù)同步采集平臺(tái)在不同的實(shí)驗(yàn)條件下同步采集參與者主客觀多維度數(shù)據(jù),包括眼動(dòng)、生理、腦電、腦成像、行為、表情、動(dòng)作姿態(tài)、物理環(huán)境等,實(shí)現(xiàn)在實(shí)驗(yàn)室環(huán)境中對(duì)建筑環(huán)境進(jìn)行主客觀結(jié)合的綜合測(cè)評(píng),并根據(jù)測(cè)評(píng)結(jié)果進(jìn)行設(shè)計(jì)優(yōu)化。
4.人機(jī)環(huán)境多模態(tài)數(shù)據(jù)綜合分析平臺(tái)對(duì)同步采集到的多維度數(shù)據(jù)源進(jìn)行專(zhuān)業(yè)的信號(hào)處理與統(tǒng)計(jì)分析,輸出分析結(jié)果與可視化報(bào)告,實(shí)現(xiàn)對(duì)建筑光環(huán)境的定量化人因評(píng)估。
虛擬現(xiàn)實(shí)實(shí)驗(yàn)設(shè)計(jì):結(jié)合ErgoLAB人機(jī)環(huán)境同步云平臺(tái)實(shí)驗(yàn)設(shè)計(jì)模塊,可基于不同實(shí)驗(yàn)環(huán)境、面向不同測(cè)試對(duì)象的專(zhuān)業(yè)實(shí)驗(yàn)設(shè)計(jì);同時(shí)通過(guò)主觀測(cè)評(píng)與行為實(shí)驗(yàn)?zāi)K機(jī)多模態(tài)客觀數(shù)據(jù)采集分析模塊進(jìn)行主客觀結(jié)合測(cè)試。無(wú)縫對(duì)接虛擬現(xiàn)實(shí)開(kāi)發(fā)引擎:支持使用Unity3D、UE4、WorldViz Vizard、Ansys VRXperience等VR開(kāi)發(fā)平臺(tái)制作的產(chǎn)品原型,均可通過(guò)ErgoVR Plugin進(jìn)行實(shí)時(shí)數(shù)據(jù)通訊,便捷地導(dǎo)入實(shí)驗(yàn)設(shè)計(jì)系統(tǒng)進(jìn)行人機(jī)交互分析,系統(tǒng)自動(dòng)計(jì)算與識(shí)別所有模型。保留場(chǎng)景及交互的完整性:被試可按照虛擬現(xiàn)實(shí)場(chǎng)景的原始程序進(jìn)行體驗(yàn)和交互,精確記錄虛擬現(xiàn)實(shí)場(chǎng)景中的眼動(dòng)數(shù)據(jù)、手柄交互數(shù)據(jù)、移動(dòng)軌跡數(shù)據(jù)、人因生理數(shù)據(jù)等多維度綜合數(shù)據(jù)。多維度數(shù)據(jù)同步采集:ErgoLAB VR Analytics虛擬現(xiàn)實(shí)人機(jī)工效評(píng)測(cè)系統(tǒng)可實(shí)時(shí)采集用戶(hù)與虛擬場(chǎng)景交互下的多模態(tài)數(shù)據(jù)定量化反應(yīng),包括時(shí)空軌跡數(shù)據(jù)、眼動(dòng)數(shù)據(jù)、生理數(shù)據(jù)、腦電數(shù)據(jù)、腦成像、生物力學(xué)、環(huán)境、動(dòng)作捕捉數(shù)據(jù)、行為編碼及交互數(shù)據(jù)等。多人交互及可視化回放:支持多人在同一個(gè)虛擬現(xiàn)實(shí)場(chǎng)景中協(xié)同完成人機(jī)交互任務(wù),并進(jìn)行本地或云端人機(jī)環(huán)境數(shù)據(jù)同步的定量評(píng)價(jià),測(cè)試者的交互動(dòng)作均細(xì)致地呈現(xiàn)在同一個(gè)虛擬世界中,即時(shí)互動(dòng)感大大增強(qiáng)。多維度數(shù)據(jù)綜合分析:通過(guò)ErgoVR人因分析引擎可生成帶有VR分析功能的虛擬現(xiàn)實(shí)場(chǎng)景應(yīng)用程序,可通過(guò)ErgoVR人因分析引擎自行研究所需興趣物體與興趣區(qū)域,支持組別設(shè)置、標(biāo)簽編輯。系統(tǒng)將自動(dòng)識(shí)別并進(jìn)行時(shí)空、交互、眼動(dòng)等多模態(tài)數(shù)據(jù)的統(tǒng)計(jì)分析,支持事件與片段的劃分。