產(chǎn)品中心
相關(guān)文章
ErgoLAB Interaction手指軌跡分析模塊,是津發(fā)科技依據(jù)人因工程和人-信息-物理系統(tǒng)理論自主研發(fā)的面向多模態(tài)數(shù)字化信息產(chǎn)品“以人為中心”的“人-信息系統(tǒng)交互”評估產(chǎn)品,可以對信息產(chǎn)品交互設(shè)計原型進行交互行為分析、可用性測試、人機交互評估、人因設(shè)計與工效學評價,廣泛用于移動終端APP應(yīng)用程序、AI人機智能交互程序產(chǎn)品原型等多類型數(shù)字化信息產(chǎn)品的交互行為分析和可用性測試、人機交互評估測試
ErgoLAB Behavior行為觀察分析模塊,采用標準攝像頭錄制行為視頻,實時獲取被研究對象的動作,姿勢,運動,位置,表情,情緒,社會交往,人機交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為-時間-頻次數(shù)據(jù)庫,記錄與編碼分析個體在活動中的行為頻次或習慣性動作的特點等。通過交互行為觀察,探索心理、生理的外在表現(xiàn),進一步了解人們行為與心理反應(yīng)的相互關(guān)系。
ErgoLAB Emotion面部表情分析模塊,是一款專業(yè)的面部表情分析與狀態(tài)識別工具。系統(tǒng)結(jié)合機器學習算法與圖像識別技術(shù),利用面部肌肉特征點計算和分類表情狀態(tài),自動編碼多種基本表情、精確計算情感效價,系統(tǒng)可實時檢測被試的頭部位置、面部特征點、視線朝向、基本生物信息等,結(jié)合AI狀態(tài)識別進一步實現(xiàn)對操作人員的分心、疲勞、應(yīng)激等狀態(tài)的自動識別以及特定環(huán)境條件下的預(yù)警反饋。
動作捕捉系統(tǒng)用于準確測量運動物體在三維空間中的運動狀態(tài)與空間位置。ErgoLAB Motion是的全新可穿戴運動捕捉與人機工效/生物力學分析系統(tǒng),配備可穿戴人因記錄儀,便于攜帶,非常適用于各種虛擬現(xiàn)實應(yīng)用與實時的現(xiàn)場人因工效科學研究,如安全生產(chǎn)、人機交互、運動分析,動作姿勢傷害評估等。
空間定位系統(tǒng)支持多類型的時空數(shù)據(jù)采集,包括室內(nèi)空間位置追蹤、虛擬現(xiàn)實場景空間位置追蹤以及真實現(xiàn)場環(huán)境的空間位置追蹤。研究人員可以在任何環(huán)境下進行時空行為研究時,完成多維度客觀數(shù)據(jù)的實時同步采集與可視化時空分析。綜合計算機圖形圖像學、視覺設(shè)計、數(shù)據(jù)挖掘等技術(shù),支持進行信息可視化、科學可視化與可視分析不同的層次研究。
津發(fā)科儀Captiv行為觀察分析系統(tǒng),法國國家安全研究所(INRS)與法國TEA公司聯(lián)合開發(fā)的CAPTIV行為觀察分析系統(tǒng)是研究人類行為的標準工具,該系統(tǒng)可以用來記錄分析被研究對象的動作,姿勢,運動,位置,表情,情緒,社會交往,人機交互等各種活動;廣泛應(yīng)用于心理與行為觀察、親子互動、人機界面設(shè)計、產(chǎn)品(廣告)營銷、汽車駕駛(交通安全環(huán)境行為學等研究。
郵件聯(lián)系我們:kingfar@kingfar.net
掃一掃,關(guān)注微信電話
微信掃一掃