產(chǎn)品中心
相關(guān)文章
ErgoLAB Interaction手指軌跡分析模塊,是津發(fā)科技依據(jù)人因工程和人-信息-物理系統(tǒng)理論自主研發(fā)的面向多模態(tài)數(shù)字化信息產(chǎn)品“以人為中心”的“人-信息系統(tǒng)交互”評估產(chǎn)品,可以對信息產(chǎn)品交互設(shè)計(jì)原型進(jìn)行交互行為分析、可用性測試、人機(jī)交互評估、人因設(shè)計(jì)與工效學(xué)評價(jià),廣泛用于移動終端APP應(yīng)用程序、AI人機(jī)智能交互程序產(chǎn)品原型等多類型數(shù)字化信息產(chǎn)品的交互行為分析和可用性測試、人機(jī)交互評估測試
ErgoLAB Behavior行為觀察分析模塊,采用標(biāo)準(zhǔn)攝像頭錄制行為視頻,實(shí)時(shí)獲取被研究對象的動作,姿勢,運(yùn)動,位置,表情,情緒,社會交往,人機(jī)交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為-時(shí)間-頻次數(shù)據(jù)庫,記錄與編碼分析個(gè)體在活動中的行為頻次或習(xí)慣性動作的特點(diǎn)等。通過交互行為觀察,探索心理、生理的外在表現(xiàn),進(jìn)一步了解人們行為與心理反應(yīng)的相互關(guān)系。
ErgoLAB Emotion面部表情分析模塊,是一款專業(yè)的面部表情分析與狀態(tài)識別工具。系統(tǒng)結(jié)合機(jī)器學(xué)習(xí)算法與圖像識別技術(shù),利用面部肌肉特征點(diǎn)計(jì)算和分類表情狀態(tài),自動編碼多種基本表情、精確計(jì)算情感效價(jià),系統(tǒng)可實(shí)時(shí)檢測被試的頭部位置、面部特征點(diǎn)、視線朝向、基本生物信息等,結(jié)合AI狀態(tài)識別進(jìn)一步實(shí)現(xiàn)對操作人員的分心、疲勞、應(yīng)激等狀態(tài)的自動識別以及特定環(huán)境條件下的預(yù)警反饋。
動作捕捉系統(tǒng)用于準(zhǔn)確測量運(yùn)動物體在三維空間中的運(yùn)動狀態(tài)與空間位置。ErgoLAB Motion是的全新可穿戴運(yùn)動捕捉與人機(jī)工效/生物力學(xué)分析系統(tǒng),配備可穿戴人因記錄儀,便于攜帶,非常適用于各種虛擬現(xiàn)實(shí)應(yīng)用與實(shí)時(shí)的現(xiàn)場人因工效科學(xué)研究,如安全生產(chǎn)、人機(jī)交互、運(yùn)動分析,動作姿勢傷害評估等。
空間定位系統(tǒng)支持多類型的時(shí)空數(shù)據(jù)采集,包括室內(nèi)空間位置追蹤、虛擬現(xiàn)實(shí)場景空間位置追蹤以及真實(shí)現(xiàn)場環(huán)境的空間位置追蹤。研究人員可以在任何環(huán)境下進(jìn)行時(shí)空行為研究時(shí),完成多維度客觀數(shù)據(jù)的實(shí)時(shí)同步采集與可視化時(shí)空分析。綜合計(jì)算機(jī)圖形圖像學(xué)、視覺設(shè)計(jì)、數(shù)據(jù)挖掘等技術(shù),支持進(jìn)行信息可視化、科學(xué)可視化與可視分析不同的層次研究。
津發(fā)科儀Captiv行為觀察分析系統(tǒng),法國國家安全研究所(INRS)與法國TEA公司聯(lián)合開發(fā)的CAPTIV行為觀察分析系統(tǒng)是研究人類行為的標(biāo)準(zhǔn)工具,該系統(tǒng)可以用來記錄分析被研究對象的動作,姿勢,運(yùn)動,位置,表情,情緒,社會交往,人機(jī)交互等各種活動;廣泛應(yīng)用于心理與行為觀察、親子互動、人機(jī)界面設(shè)計(jì)、產(chǎn)品(廣告)營銷、汽車駕駛(交通安全環(huán)境行為學(xué)等研究。
郵件聯(lián)系我們:kingfar@kingfar.net
掃一掃,關(guān)注微信電話
微信掃一掃