字體:小 中 大 | |
|
||||||
2010/03/17 05:08:45瀏覽579|回應0|推薦0 | ||||||
讓人體皮膚變為觸控面板——卡內基梅隆大學與微軟開發出新技術
該技術由卡內基梅隆大學的研究生Chris Harrison與微軟的研究人員共同開發而成。Skinput是在袖箍內側安裝聲波感測器並將其與電腦系統連接。可根據需要配合使用手掌大小的小型投影機。配帶該袖箍後,用一隻手的手指敲擊手臂及手掌,其振動會轉變為聲學脈衝,隨後在皮膚上像波浪一樣傳播。臂帶上的感測器檢測出該脈衝後,傳遞給分析資訊的電腦。 Harrison等通過關注聲波脈衝的波形及強度因敲擊手臂及手掌的部位不同而發生變化這一點,開發出了根據該波形資訊等通知敲擊的是手臂哪一部位的軟體。“在手臂上,能以95.5%的準確率判斷敲擊部位”(Harrison)。 Harrison表示,通過利用該功能,可操作各種便攜終端。比如,在手臂上將音樂播放器的各種操作劃分為幾個部位,只需用手指敲擊手臂,便可操作與袖箍連接的音樂播放器。如果利用小型投影機,還可將手臂及手掌作為螢幕來收看或收聽音視訊以及操作遊戲機及手機等。 Skinput利用投影機等、以手掌等代替手機界面這一點與美國麻省理工學院(MIT)開發的“Sixth Sense”相似。不同的是,利用Skinput時無需使用攝影機。檢測敲擊部位時,Sixth Sense採用的是基於攝影機的圖像識別方法,而Skinput利用的是聲波脈衝。另外,Skinput完全聚焦于便攜終端界面,並不是實現以電腦資訊強化現實資訊的增強現實(AR,augmented reality),這一點Skinput與Sixth Sense也不同。 Harrison將Skinput的開發定位於分離便攜終端通信等基本功能與界面的研究的一環。目前便攜終端的體積越來越小,雖然攜帶方便這一點非常便利,不過,界面的按鈕變小或者畫面尺寸變小,反而變得不便於使用。因此,“利用身邊的桌子及牆壁作為界面”這一想法便是開發Skinput的初衷。 卡內基梅隆大學與微軟將在2010年4月10~15日于美國亞特蘭大舉辦的學會“28th Annual SIGCHI Conference on Human Factors in Computing Systems”上公佈該系統的詳細內容。(記者:野澤 哲生) ■日文原文 人間の皮膚がタッチパネルに,Carnegie Mellon大とMicrosoftが開発 |
||||||
( 知識學習|隨堂筆記 ) |