台灣大學研究團隊近日成功開發出一種新技術,可將現有的立體圖像轉換為光場內容,從而讓大量 AR/VR 資源能夠應用於下一代光場顯示器,進一步提升增強現實體驗的真實感和舒適度。
目前 AR/VR 設備普遍存在一個痛點,就是由於顯示焦平面固定,容易導致人眼視覺焦點與虛擬物體位置不一致,用戶長時間使用容易感到眼疲勞甚至眩暈。而光場顯示器模擬真實世界中的光線傳播方式,能提供更自然、更舒適的景深感知。不過這類設備需依賴多視角圖像內容,與傳統立體 3D 內容格式不相兼容。
為解決這一矛盾,台大團隊研發出一套基於輕量神經網路的高效轉換系統。該方法不僅能夠從立體輸入生成高質量多視角畫面,還通過數字預扭曲和位移校正技術,有效克服光學畸變和錯位問題。特別的是該系統生成的內容可直接匹配近眼光場顯示器的光學結構,顯著降低視覺偽影和視網膜誤差。
研究團隊表示這項技術最大意義在於「打通了傳統 3D 內容與光場 AR 之間的壁壘」,創作者無需重新構建資源,即可將現有作品移植到更先進的顯示環境中。這不僅節省成本,也為未來光場顯示技術的普及應用提供了可行路徑。