오늘 싱가포르 애플 오피스를 다녀왔다. Apple에서 진행하는 Vision Pro Developer Lab에 참여했다.
애플 오피스
우리 회사랑 아주 가까운 곳에 있었다. 걸어서 한 5-7분 거리?


One North에 위치한 애플 오피스
방문자 등록
보안으로 인해 내부 촬영은 불가능하다. 사진은 여기서 끝.

VisionOS
이미 VisionOS 시뮬레이터가 나왔기 때문에 실제 디바이스로 테스트 가능한 것들 위주로 체크했다.
ARKitSession
가장 먼저 테스트해본 SDK이다. ImmersiveSpace와 RealityView를 이용하면 눈으로 보이는 공간에 무언가를 랜더링 할 수 있다. 즉 눈에 보이는 공간 전체를 앱의 공간으로 활용할 수 있다. full space로 설정 필요. ARKit의 PlaneDetectionProvider를 사용하면 눈에 보이는 공간의 벽, 바닥, 천장의 색상을 바꾸는 작업 등을 할 수 있고 또한 해당 Plane이 벽인지 천장인지 문인지 창문인지 등을 확인 할 수 있다.
이 기능을 이용하면 당연히 눈에 보이는 공간을 재구성할 수 도 있을것이다. 예를 들어 벽을 영화관 공간처럼 꾸민다든가 하는 것이 가능하다.
예시
NUI (Natural User Interface)
눈동자와 손을 이용해서 조작할 수 있다. 특히 눈동자로 트래킹하는 것이 정말 편리했다. 손 동작 인식도 기대 이상으로 잘 인식했다.
RoomPlan
아쉽게도 RoomPlan은 VisionOS를 지원하지 않는다. 지원을 하지 않기 때문에 당연히 컴파일 불가능하다. RoomPlan의 iOS 샘플앱은 컴파일은 되지만 실행이 되지 않는다.
Camera 관련된 API
이미 알려진대로 Camera 접근 권한은 보안상 막혀있다. 즉 애플이 아닌 다른 회사에서 VisionPro를 위한 카메라 관련된 앱은 만들 수 없다.
사운드
애플 사이트 Quick Look에 올라온 3D모델로 테스트해봤다. 분명 귀에 꼽는 이어폰 같은 건 없었는데 사운드가 꽤 좋았다. 이게 골전도 방식이었는지 아니면 스피커를 통해 들은 소리인지 잘 모르겠다.
Developer Lab
일단 아침에 등록하면 애플 엔지니어분들이 비전 프로를 개인당 한대씩 나누어준다. 우리팀은 총 4명이 참석했는데 4명 다 디바이스를 줘서 몰입해서 개발 할 수 있었다.
또한 애플의 VisionOS Engineer도 참여해서 적극적으로 이것저것 도와주었다. 코딩하다 막히거나 샘플 코드에 대한 질문 그리고 VisionOS에 관련된 여러가지 질문에도 친절하게 알려주어서 진짜 도움 많이 되었다.
점심도 맛있었다.
Developer Lab은 아침 10시부터 오후 4시까지 진행되었으며 시간은 딱 맞게 진행되기 때문에 참석하기 전에 개발 환경 세팅 뿐만 아니라 테스트해보고 싶은 코드들도 미리미리 잘 준비해오면 알차게 시간을 활용할 수 있을 것이다.

Leave a comment