蘋果在 WWDC 2020 期間介紹了面向 iOS 14 和 macOS Big Sur
開發(fā)者的視覺框架更新,現(xiàn)已支持圖像和視頻中的人體與手部姿勢(shì)檢測(cè)。應(yīng)用程序可借此分析目標(biāo)人物的姿勢(shì)、動(dòng)作和手勢(shì),為潛在的交互體驗(yàn)開辟了更多的可能。由官方提供的示例可知,健身應(yīng)用將可自動(dòng)追蹤用戶是否有效地完成了鍛煉動(dòng)作。
手勢(shì)檢測(cè)有望帶來用戶與 App 交互的新方式,比如安全培訓(xùn) App 可幫助員工檢查其是否學(xué)習(xí)到位、媒體編輯軟件亦可基于姿勢(shì)的相似性而找到對(duì)應(yīng)的照片或視頻。
此外蘋果官方演示了一個(gè)人如何在半空中捏起拇指和食指,然后在不觸碰 iPhone 屏幕的情況下進(jìn)行繪制。
App 開發(fā)者能夠基于新的視覺框架,在比出特定手勢(shì)的用戶手上覆蓋顯示相應(yīng)的圖形或表情符號(hào)。
或者在相機(jī)應(yīng)用中引入這一功能,當(dāng)檢測(cè)到用戶比出手勢(shì)時(shí)自動(dòng)觸發(fā)拍照。

此前蘋果已經(jīng)在 ARKit 中提供了類似的功能,但僅限于增強(qiáng)現(xiàn)實(shí)會(huì)議類應(yīng)用,并且只能在兼容的 iPhone 或 iPad 設(shè)備上使用后置攝像頭來實(shí)現(xiàn)。
現(xiàn)在,新版視覺框架可在一個(gè)場(chǎng)景中檢測(cè)多只手或多人的身體動(dòng)作。但在用戶佩戴了手套、彎腰、倒立、穿著長(zhǎng)袍、靠近畫面邊緣、或部分被遮擋的情況下,效果有可能打一定的折扣。