ErgoLAB FACS面部表情分析系統(tǒng)
具體成交價以合同協(xié)議為準(zhǔn)
- 公司名稱 北京津發(fā)科技股份有限公司
- 品牌 津發(fā)科技
- 型號 ErgoLAB
- 產(chǎn)地 中國
- 廠商性質(zhì) 生產(chǎn)廠家
- 更新時間 2025/3/13 14:28:57
- 訪問次數(shù) 7433
產(chǎn)品標(biāo)簽
聯(lián)系方式:王先生13021282218 查看聯(lián)系方式
聯(lián)系我們時請說明是化工儀器網(wǎng)上看到的信息,,謝謝!
虛擬現(xiàn)實仿真實驗室|眼動儀|心理學(xué)實驗室|EEG/ERP腦電儀|事件相關(guān)電位系統(tǒng)|多導(dǎo)生理儀|行為觀察分析系統(tǒng)|人機環(huán)境同步平臺|人機工程儀器設(shè)備|人因工程儀器設(shè)備|人機交互實驗室|人機工效實驗室|人機工程實驗室|人因工程實驗室
產(chǎn)地類別 | 國產(chǎn) | 應(yīng)用領(lǐng)域 | 建材,交通,航天,汽車 |
---|
ErgoLAB面部表情分析系統(tǒng)
一、產(chǎn)品概述
ErgoLABFACS面部表情分析系統(tǒng)是主要的神經(jīng)行為測試工具之一,,該系統(tǒng)是一款專業(yè)的工具軟件,,可自動分析面部表情和面部微表情動作,,同時系統(tǒng)內(nèi)嵌情感效價識別模型,,直接測量個體的“消極”、“中性”,、“積極”的情感狀態(tài),,還提供視線方向、頭部朝向,、個人特征等數(shù)據(jù),。系統(tǒng)通過面部動作編碼體系(FACS:FacialActionCodingSystem)將許多現(xiàn)實生活中人類的表情進行了分類,是如今面部表情的肌肉運動的參照標(biāo)準(zhǔn),。系統(tǒng)具備情緒狀態(tài)識別,、面部表情分析等功能,根據(jù)人臉的解剖學(xué)特點,,將其劃分成若干既相互獨立又相互聯(lián)系的運動單元(AU),,并分析了這些運動單元的運動特征及其所控制的主要區(qū)域以及與之相關(guān)的表情。
ErgoLABFACS面部表情分析系統(tǒng)是一款專業(yè)的面部表情分析與情緒狀態(tài)識別科研工具,。系統(tǒng)通過圖像識別技術(shù)結(jié)合機器學(xué)習(xí)等人工智能算法,,利用面部肌肉特征點計算和分類表情狀態(tài),自動編碼多種基本表情,、精確計算情感效價,;并通過龐大的數(shù)據(jù)庫使得模型預(yù)測的情緒準(zhǔn)確率高達93.3%。通過計算多維度數(shù)據(jù)特征,,結(jié)合AI狀態(tài)識別進一步研發(fā)可實現(xiàn)對操作人員的分心,、疲勞、應(yīng)激等狀態(tài)的自動識別以及特定環(huán)境條件下的預(yù)警反饋,。ErgoLABFACS系統(tǒng)采用*表情識別算法,,開發(fā)團隊在軟件功能及算法定制開發(fā)上積累了豐富的開發(fā)實施經(jīng)驗,可以根據(jù)用戶要求對軟件進行定制化設(shè)計開發(fā),,確保滿足用戶科研需要,。
系統(tǒng)可以嵌入ErgoLAB行為觀察分析系統(tǒng)和人機環(huán)境同步平臺,支持在同一個軟件界面同步采集與分析多維數(shù)據(jù)源,,包括行為觀察視頻,、生理數(shù)據(jù)、眼動數(shù)據(jù),、腦電數(shù)據(jù),、動作捕捉、生物力學(xué),、作業(yè)環(huán)境數(shù)據(jù)等,,包含多終端API/TTL實時行為編碼與事件標(biāo)記應(yīng)用程序,并提供開放數(shù)據(jù)同步接口可供二次開發(fā),。
隨著神經(jīng)行為科學(xué)的迅猛發(fā)展,,人們開始嘗試用神經(jīng)行為學(xué)工具來測試各種商業(yè)行為表現(xiàn)。主要集中應(yīng)用在對消費者偏好和滿意度的測試,,如消費者觀看廣告內(nèi)容時的表情和購買意愿的關(guān)系,;消費者聞不同氣味的香水后的表情反應(yīng)與對香水偏好的關(guān)系;聽眾的表情與音樂喜好的關(guān)系等眾多研究領(lǐng)域,。情感預(yù)測態(tài)度和行動針對視頻圖像中的每一幀,,F(xiàn)ACS提供面部表情的7種關(guān)鍵指標(biāo)的詳實數(shù)據(jù),,以及6種面部特征統(tǒng)計數(shù)據(jù)。這些參數(shù)可以洞察人們的情緒狀態(tài),,并提高消費品,、廣告、媒體,、軟件的商業(yè)價值,。
二、產(chǎn)品特點
1,、面部表情自動編碼
●面部表情自定義處理參數(shù)模塊,,包括實時處理及離線處理,如數(shù)據(jù)插值,、中值濾波,、均值濾波等,支持自定義程度閾值,、合并閾值,、以及大腦加工時間,。
●自動識別并編碼七種基本表情,,包括高興、悲傷,、厭惡,、恐懼、驚訝,、生氣,、參與度,以0至100%區(qū)間計算表情程度值,;
●計算多種微表情數(shù)據(jù),,如抬起眉毛內(nèi)角、抬起眉毛外角,、皺眉(降低眉毛),、上眼瞼上升、臉頰提升,、眼輪匝肌外圈收緊/內(nèi)圈收緊,、皺鼻、拉動上嘴唇向上運動,、拉動人中部位的皮膚向上,、拉動嘴角傾斜向上、急劇的嘴唇拉動,、收緊嘴角,、拉動嘴角向下傾斜,、拉動下唇向下、推動下唇向上,、撅嘴,、嘴角拉伸、收緊雙唇向外翻,、眼睛擴大,、張嘴等。
2,、狀態(tài)識別與預(yù)警反饋
●系統(tǒng)內(nèi)嵌情感效價計算模型,,精確識別積極、中性,、消極情感,,客觀評價個體情緒狀態(tài),與多模態(tài)數(shù)據(jù)形成客觀有效的印證關(guān)系,;
●系統(tǒng)可自動檢測操作人員的頭部位置三軸數(shù)據(jù):俯仰角,、偏航角、翻滾角,;系統(tǒng)能夠自動檢測實時跟蹤操作人員頭部朝向,,包括俯仰角、偏航角,、翻滾角,,并測定注視方向,計算瞳孔間距以及注意狀態(tài)檢測,;
●結(jié)合人工智能與機器學(xué)習(xí)算法,,進一步實現(xiàn)對操作人員的分心、疲勞,、應(yīng)激等狀態(tài)的自動識別以及特定環(huán)境條件下的預(yù)警反饋,。
3、面部表情分析與統(tǒng)計屬性識別
●實時可視化的表情編碼:系統(tǒng)實時計算操作人員的表情狀態(tài)與情緒效價,,在實驗過程中,,主試可實時查看與監(jiān)測操作人員的表情程度與情緒變化,并做出相應(yīng)的任務(wù)調(diào)整與行為預(yù)警,。
●自動統(tǒng)計面部表情數(shù)據(jù):包括每種面部表情的開始時間,、結(jié)束時間、首次發(fā)生的時間,、總發(fā)生次數(shù),、頻率、每次發(fā)生的時間,、總的持續(xù)時間,、總的持續(xù)時間在全部觀察時間中所占的百分比,、短的持續(xù)時間、長的持續(xù)時間,、平均持續(xù)時間,、持續(xù)時間的標(biāo)準(zhǔn)差、持續(xù)時間間隔置信區(qū)間等數(shù)據(jù),。
●自動檢測操作人員的整個面部特征點,,并輸出原始坐標(biāo)X、Y,,以及視線位置,;
●系統(tǒng)包含年齡分類器,支持實時計算并識別多個年齡段狀態(tài),,可智能識別多種被試屬性信息,,如性別、是否佩戴眼鏡,。
4,、多維度數(shù)據(jù)統(tǒng)計與二次開發(fā)
●多維度數(shù)據(jù)交叉統(tǒng)計:系統(tǒng)支持面部表情數(shù)據(jù)與其他多模態(tài)數(shù)據(jù)(眼動、腦電,、生理,、動補、行為等)的同步交叉分析,,多個數(shù)據(jù)源在同一平臺界面呈現(xiàn),,在采集的同時間軸數(shù)據(jù)里選擇相應(yīng)的時間片段,可同步觀察和統(tǒng)計分析所有數(shù)據(jù)流之間的相關(guān)關(guān)系,;
●具有API開發(fā)接口:面部表情原始數(shù)據(jù)與狀態(tài)分析結(jié)果可以被其他程序?qū)崟r訪問,可使其它程序?qū)Ρ辉囌叩那榫w進行反饋,。
三,、應(yīng)用領(lǐng)域
●心理學(xué)與神經(jīng)科學(xué)研究;
●人因工程與工效學(xué)研究,;
●人因智能與人機交互研究,;
●智能交通與駕駛行為研究;
●建筑人居健康與環(huán)境行為研究,;
●市場研究與消費者調(diào)研,;
●用戶體驗與交互研究;
●教育研究,;
●臨床研究,;
●嬰兒研究;
●體育運動研究,;
●沉浸式VR研究,;
一、產(chǎn)品概述
ErgoLABFACS面部表情分析系統(tǒng)是主要的神經(jīng)行為測試工具之一,,該系統(tǒng)是一款專業(yè)的工具軟件,,可自動分析面部表情和面部微表情動作,,同時系統(tǒng)內(nèi)嵌情感效價識別模型,,直接測量個體的“消極”、“中性”,、“積極”的情感狀態(tài),,還提供視線方向、頭部朝向,、個人特征等數(shù)據(jù),。系統(tǒng)通過面部動作編碼體系(FACS:FacialActionCodingSystem)將許多現(xiàn)實生活中人類的表情進行了分類,是如今面部表情的肌肉運動的參照標(biāo)準(zhǔn),。系統(tǒng)具備情緒狀態(tài)識別,、面部表情分析等功能,根據(jù)人臉的解剖學(xué)特點,,將其劃分成若干既相互獨立又相互聯(lián)系的運動單元(AU),,并分析了這些運動單元的運動特征及其所控制的主要區(qū)域以及與之相關(guān)的表情。

ErgoL
ABFACS系統(tǒng)是*自主研發(fā)技術(shù),,具有多項國家發(fā)明與軟件著作權(quán),,通過了省部級新技術(shù)新產(chǎn)品認證,歐洲CE,、美國FCC,、歐盟Rohs、ISO9001,、ISO14001,、OHSAS18001等多項管理體系認證。廣泛應(yīng)用于心理與行為觀察,、人因智能與人機互動,、人機界面設(shè)計與產(chǎn)品可用性測試、產(chǎn)品(廣告)營銷,、汽車駕駛(交通安全),、工業(yè)管理,、工業(yè)設(shè)計、人因工程,、消費行為學(xué),、應(yīng)急行為研究、安全科學(xué),、環(huán)境行為學(xué),、建筑設(shè)計等多個領(lǐng)域科學(xué)研究。


隨著神經(jīng)行為科學(xué)的迅猛發(fā)展,,人們開始嘗試用神經(jīng)行為學(xué)工具來測試各種商業(yè)行為表現(xiàn)。主要集中應(yīng)用在對消費者偏好和滿意度的測試,,如消費者觀看廣告內(nèi)容時的表情和購買意愿的關(guān)系,;消費者聞不同氣味的香水后的表情反應(yīng)與對香水偏好的關(guān)系;聽眾的表情與音樂喜好的關(guān)系等眾多研究領(lǐng)域,。情感預(yù)測態(tài)度和行動針對視頻圖像中的每一幀,,F(xiàn)ACS提供面部表情的7種關(guān)鍵指標(biāo)的詳實數(shù)據(jù),,以及6種面部特征統(tǒng)計數(shù)據(jù)。這些參數(shù)可以洞察人們的情緒狀態(tài),,并提高消費品,、廣告、媒體,、軟件的商業(yè)價值,。
二、產(chǎn)品特點
1,、面部表情自動編碼
●面部表情自定義處理參數(shù)模塊,,包括實時處理及離線處理,如數(shù)據(jù)插值,、中值濾波,、均值濾波等,支持自定義程度閾值,、合并閾值,、以及大腦加工時間,。
●自動識別并編碼七種基本表情,,包括高興、悲傷,、厭惡,、恐懼、驚訝,、生氣,、參與度,以0至100%區(qū)間計算表情程度值,;
●計算多種微表情數(shù)據(jù),,如抬起眉毛內(nèi)角、抬起眉毛外角,、皺眉(降低眉毛),、上眼瞼上升、臉頰提升,、眼輪匝肌外圈收緊/內(nèi)圈收緊,、皺鼻、拉動上嘴唇向上運動,、拉動人中部位的皮膚向上,、拉動嘴角傾斜向上、急劇的嘴唇拉動,、收緊嘴角,、拉動嘴角向下傾斜,、拉動下唇向下、推動下唇向上,、撅嘴,、嘴角拉伸、收緊雙唇向外翻,、眼睛擴大,、張嘴等。

●系統(tǒng)內(nèi)嵌情感效價計算模型,,精確識別積極、中性,、消極情感,,客觀評價個體情緒狀態(tài),與多模態(tài)數(shù)據(jù)形成客觀有效的印證關(guān)系,;
●系統(tǒng)可自動檢測操作人員的頭部位置三軸數(shù)據(jù):俯仰角,、偏航角、翻滾角,;系統(tǒng)能夠自動檢測實時跟蹤操作人員頭部朝向,,包括俯仰角、偏航角,、翻滾角,,并測定注視方向,計算瞳孔間距以及注意狀態(tài)檢測,;
●結(jié)合人工智能與機器學(xué)習(xí)算法,,進一步實現(xiàn)對操作人員的分心、疲勞,、應(yīng)激等狀態(tài)的自動識別以及特定環(huán)境條件下的預(yù)警反饋,。

●實時可視化的表情編碼:系統(tǒng)實時計算操作人員的表情狀態(tài)與情緒效價,,在實驗過程中,,主試可實時查看與監(jiān)測操作人員的表情程度與情緒變化,并做出相應(yīng)的任務(wù)調(diào)整與行為預(yù)警,。
●自動統(tǒng)計面部表情數(shù)據(jù):包括每種面部表情的開始時間,、結(jié)束時間、首次發(fā)生的時間,、總發(fā)生次數(shù),、頻率、每次發(fā)生的時間,、總的持續(xù)時間,、總的持續(xù)時間在全部觀察時間中所占的百分比,、短的持續(xù)時間、長的持續(xù)時間,、平均持續(xù)時間,、持續(xù)時間的標(biāo)準(zhǔn)差、持續(xù)時間間隔置信區(qū)間等數(shù)據(jù),。
●自動檢測操作人員的整個面部特征點,,并輸出原始坐標(biāo)X、Y,,以及視線位置,;
●系統(tǒng)包含年齡分類器,支持實時計算并識別多個年齡段狀態(tài),,可智能識別多種被試屬性信息,,如性別、是否佩戴眼鏡,。
4,、多維度數(shù)據(jù)統(tǒng)計與二次開發(fā)
●多維度數(shù)據(jù)交叉統(tǒng)計:系統(tǒng)支持面部表情數(shù)據(jù)與其他多模態(tài)數(shù)據(jù)(眼動、腦電,、生理,、動補、行為等)的同步交叉分析,,多個數(shù)據(jù)源在同一平臺界面呈現(xiàn),,在采集的同時間軸數(shù)據(jù)里選擇相應(yīng)的時間片段,可同步觀察和統(tǒng)計分析所有數(shù)據(jù)流之間的相關(guān)關(guān)系,;
●具有API開發(fā)接口:面部表情原始數(shù)據(jù)與狀態(tài)分析結(jié)果可以被其他程序?qū)崟r訪問,可使其它程序?qū)Ρ辉囌叩那榫w進行反饋,。

●心理學(xué)與神經(jīng)科學(xué)研究;
●人因工程與工效學(xué)研究,;
●人因智能與人機交互研究,;
●智能交通與駕駛行為研究;
●建筑人居健康與環(huán)境行為研究,;
●市場研究與消費者調(diào)研,;
●用戶體驗與交互研究;
●教育研究,;
●臨床研究,;
●嬰兒研究;
●體育運動研究,;
●沉浸式VR研究,;