본 연구는 서울 인공지능 과학관 상설전시실에 설치될 인터랙티브 미디어 작품 제작을 목적으로, 360° 3D 라이다 센서를 활용한 실시간 관람객 위치 인식 기반 콘텐츠를 구현하였다. 전시 공간의 구조적 특성과 수용 인원을 분석하고, 선행 사례와 기술적 가능성을 검토한 후, 고대역폭 데이터 전송 및 파싱을 위한 프로세싱(Processing) 기반 전용 웹 소켓라이브러리를 개발하였다. 콘텐츠는 ‘기술의 등장-해석-수용’이라는 인지적 서사 구조를 반영하여 3개의 장면으로 구성되었으며, 벽면과 바닥 면 투사를 통해 관람객의 움직임에 실시간 반응하도록 설계하였다. 제작과정에서 Piaget의 인지발달 이론, Gibson의 행동 유도성, Norman의 상호작용 설계 이론을 참조하여, 관람객 경험이 혼란-이해-조화의 단계를 거쳐 확장되는 과정을 시각적으로 반영하였다. 본 연구는 산업용 기술을 예술 및 디자인 분야에 적용한 실증적 사례로서, 라이다 센서 데이터 기반 인터랙티브 콘텐츠 제작의 가능성과 한계를 확인하였다. 또한 제작된 라이브러리와 코드 공개를 통해 향후 미디어아트 및 HCI 연구자, 창작자들에게 실질적인 참고 자료를 제공할 수 있을 것으로 기대된다.
This study aims to create an interactive media artwork for permanent exhibition at the Seoul Artificial Intelligence Science Museum, utilizing 360° 3D LiDAR sensors to detect visitors’ positions in real time and project media content onto walls and floors. Based on an analysis of spatial conditions and audience capacity, as well as a review of related case studies, a custom WebSocket library was developed in Processing to enable high-bandwidth data transmission and parsing. The content was designed in three narrative phases―“Emergence, Interpretation, and Adoption of Technology”―reflecting cognitive processes of encountering new technologies. Drawing upon Piaget’s theory of cognitive development, Gibson’s concept of affordance, and Norman’s interaction design theory, the work translates visitors’ gradual transition from confusion to understanding and harmony into visual experiences. This research demonstrates the potential and limitations of applying industrial LiDAR technology to the fields of art and design through an empirical case study. Furthermore, by releasing the developed library and source code, the study provides practical resources for future creators and researchers in media art and human-computer interaction.