밍치궈: 애플 AR 글래스,사용자 손 제스처 인터페이스와 물체 감지 기능 제공할것

애플 애널리스트 밍치궈(Kuo Ming-Chi)는 맥루머스가 입수한 새로운 리서치 노트에서 애플의 오랫동안 소문난 AR 헤드셋에 혁신적인 손동작과 물체 감지 사용자 인터페이스를 제공하기 위해 여러 개의 매우 민감한 3D 감지 모듈을 포함할 것으로 예상된다고 밝혔다. LINK AR/MR 헤드셋의 구조화된 조명은 사용자 또는 다른 사람의 손과 사물의 눈앞 위치 변화뿐만 아니라 손의 역동적인 디테일 변화(아이폰의 페이스ID/구조화된 조명/애니모지가 사용자의 역동적인 표현 변화를 감지할 수 있는 것처럼)도 감지할 수 있을 것으로 예측한다. 손 움직임의 세부 사항을 캡처하면 보다 직관적이고 생생한 인간-기계 UI를 제공할 수 있다(예를 들어, 주먹을 쥐고 펴는 사용자의 손을 감지하여 풍선 [이미지]를 손에 들고 날아가는 것). 밍치궈는 헤드셋이 손동작과 움직임을 모두 감지하여 사용자가 가상 풍선을 놓기 위해 손을 벌릴 수 있는 몰입감 있는 경험을 제공하는 기능을 설명한다.이 놀라운 업적을 달성하기 위해, 애플은 현재의 아이폰보다 더 높은 품질과 스펙의4개의 3D 센서를 통합할 것으로 예상된다. 밍치궈는이 인간-기계 사용자 인터페이스의 품질을 애플의 AR 헤드셋 성공의 열쇠로 보고 있다. 그에 따르면, 이러한 인터페이스 기능에는 제스처 제어, 물체 감지뿐만 아니라 시선 추적, 홍채 인식, 음성 제어, 피부 감지, 표정 감지, 공간 감지 등이 포함된다고 한다.올해 초,Patently Apple은 이 같은 개념을 상세히 기술한 애플의 특허 출원을 언급했다. 3차원 환경에서 수행되는 작업을 결정하기 위해 미세 제안의 다양한 움직임과 위치 및 다양한 이동 매개 변수가 사용됩니다. 카메라를 사용하여 3차원 환경과 상호 작용하기 위한 미세 제스처를 캡처하면 사용자는 물리적 입력 장비에 의해 방해받지 않고 물리적 환경을 자유롭게 이동할 수 있으며, 이를 통해 사용자는 보다 자연스럽고 효율적으로 3차원 환경을 탐색할 수 있다. 그 특허의 출원명은 "3차원 환경과 상호작용하기 위한 장치, 방법 및 그래픽 사용자 인터페이스"이다.
https://www.macrumors.com/2021/12/08/apple-ar-vr-hand-gesture-interface/
사용자댓글