為推動 XR 技術普惠性發展,英國格拉斯哥大學與瑞士聖加侖大學聯合開展跨學科研究,成功開發出基於面部表情的精準交互系統。該系統依託具備面部識別功能的高精度頭顯設備,通過解析用戶細微表情實現 VR/AR 環境下的無手柄操控。
研究團隊構建了包含 53 種基礎面部姿態的識別矩陣,每個表情需保持 3 秒重複三次,並完成舒適度、易用性等維度的主觀評估。實驗發現,聚焦於口部(張嘴)、眼部(眯眼)、臉頰(鼓腮)及嘴角(拉伸)等 7 個關鍵區域的表情組合,在識別準確率與用戶體驗間達成最佳平衡。
項目負責人格拉斯哥大學電腦科學學院格雷厄姆·威爾遜教授指出:"傳統 XR 交互嚴重依賴手部控制器,這對運動障礙群體構成天然屏障。我們希望驗證商用頭顯的面部識別潛能,通過算法優化實現普適化交互。"
研究團隊開發的神經網路模型,成功將表情識別準確率提升至 97%,標誌著面部交互技術取得關鍵突破。
為驗證系統實用性,研究團隊招募 10 名健康志願者開展對照實驗。在 VR 射擊場景中,受試者通過面部表情完成轉向、選擇、射擊等操作;在 AR 網頁瀏覽任務中,則利用表情實現滾動、點擊、返回等功能。
結果顯示,儘管手柄在精準控制上仍具優勢,但面部交互顯著降低了操作疲勞度,80% 受試者認為其"直觀高效且未來應用潛力巨大"。
該系統的技術亮點在於:
表情識別引擎:採用深度學習框架,對 7 種核心表情進行毫秒級解析
跨平台兼容性:支持主流 VR/AR 頭顯的面部追蹤模塊
自適應校準系統:可根據用戶面部特徵動態調整識別閾值
多模態交互接口:支持表情-手柄混合控制模式
研究團隊表示,當前成果僅為階段性突破。後續計劃聯合運動神經障礙患者開展臨床試驗,重點解決漸凍症、肌萎縮側索硬化症等特殊群體的交互需求。項目最終目標是為開發者提供標準化 API 接口,推動 XR 設備廠商將面部交互納入原生功能模塊。