AI 도입으로 장애인이 겪는 장벽은 낮추고 접근성 개선
장애 기능 보조에서 정서 지원으로 보조공학 적용 범위 확대
세계 최대 보조공학 축제인 ‘ CSUN Assistive Technology Conference 2026’이 지난 3월 9일부터 13일까지 미국 애너하임 메리어트에서 개최됐다. 캘리포니아 주립대 노스리지(CSUN) 장애인 센터가 주관하는 이 행사는 전 세계 연구자와 산업 관계자들이 모여 최신 기술과 정책을 논의하는 글로벌 플랫폼이다. 올해도 글로벌 기업들이 대거 참여해 보조공학의 최신 연구 성과와 실무 적용 사례를 공유하며 성황리에 마무리됐다. 보조공학(Assistive Technology, AT)은 장애인과 고령자가 겪는 일상의 불편을 기술로 해결하고, 더 독립적인 삶을 누릴 수 있도록 지원하는 기술 분야를 뜻한다.
<행사개요>
| 행사명 | CSUN Assistive Technology Conference 2026 |
| 일시 | 2026년 3월 9일 ~ 3월 13일 |
| 장소 | Anaheim Marriott |
| 주최 | California State University, Northridge |
| 참가기업수 | 124 개 |
| 방문객 수 | 약5,000 명 |
[자료: KOTRA 실리콘밸리무역관 정리]
<CSUN Assistive Technology Conference 2026 전시장 광경>
[자료: KOTRA 실리콘밸리무역관 직접 촬영]
전시관은 단순 제품 전시를 넘어, 기술의 실제 구현 수준과 시장성을 직접 확인할 수 있는 장이었다. 약 120개 이상의 기업 및 기관이 참여해 다양한 제품과 서비스를 시연했으며, 교육·정부·연구 기관 관계자는 물론 실사용자인 장애인들로부터 뜨거운 관심을 받았다. 각 부스에서는 방문객들이 제품을 직접 체험하게 하고 제품에 대한 피드백을 수집하는 등 바쁜 5일간의 일정이 펼쳐졌다.
이번 전시에서 확인된 주요 흐름 중 하나는 AI 기술이 기존 보조공학 제품에 점진적으로 결합되고 있다는 점이다. 예를 들어 비마이아이즈(Be My Eyes)는 AI 기반 이미지 설명 기능을 통해 시각장애인의 환경 인식을 지원했으며, 위워크(WeWALK)는 센서와 소프트웨어를 결합한 스마트 지팡이로 보행 중 장애물 인식을 돕는 기술을 선보였다. 또한 글라이던스(Glidance)는 보행 보조 로봇 전시를 통해 이동 지원 기술의 새로운 가능성을 제시했고, 소니(Sony)는 AI 기반 로봇을 전시하며 보조공학의 영역을 신체적 보조에서 감정적 지원 차원으로 확대했다.
Be My Eyes, AI 기반 시각 정보 지원 서비스로의 전환
Be My Eyes는 시각장애인을 위한 대표적인 접근성 플랫폼으로, 기존에는 자원봉사자와의 실시간 연결을 통해 주변 환경을 설명해 주는 방식으로 서비스를 제공해 왔다. 최근에는 AI 기술을 접목한 ‘Be My AI’ 기능을 도입하며 서비스 구조의 변화를 시도하고 있다. 이 기능은 이미지 인식 및 자연어 처리 기술을 기반으로 주변 상황을 자동으로 설명하고 텍스트를 읽어주는 역할을 수행한다. 이를 통해 사용자는 보다 신속하게 정보를 확인할 수 있으며, 단순한 상황에서는 별도의 인력 도움 없이도 서비스 이용이 가능해졌다. Be My Eyes의 사례는 보조공학 서비스가 인력 중심서비스와 함께 AI 기반으로 점진적으로 확대되고 있음을 보여준다.
<Be My Eyes 부스. Be My Eyes 창립자 Han Jorgen Wiberg (왼쪽)과 CMO Andy Bailey (오른쪽)>
[자료: KOTRA 실리콘밸리무역관 직접 촬영]
WeWalk, 센서와 AI를 결합한 스마트 보행 보조 기술
WeWALK는 시각장애인을 위한 스마트 지팡이를 개발하는 기업으로, 전통적인 보행 보조 도구에 센서 및 소프트웨어 기능을 결합한 것이 특징이다. 해당 제품은 초음파 센서를 활용하여 사용자의 상반신 높이에 있는 장애물을 감지하고, 이를 진동이나 음성으로 전달하는 기능을 제공한다. 또한 스마트폰과 연동되어 길 안내 및 위치 기반 정보 제공 기능도 지원하고 있다. 최근에는 음성 인터페이스와 AI 기반 기능을 통해 사용자 편의성을 개선하는 방향으로 기술이 발전하고 있다. WeWALK의 사례는 전통적인 보행 보조기기에 센서 및 소프트웨어가 결합되며 ‘물리 장치에서 디지털 플랫폼’으로 진화하는 흐름을 보여준다. 특히 물리적 기기와 소프트웨어의 융합이 보조공학 분야에서 중요한 방향으로 자리잡고 있음을 시사한다.
<WeWalk 부스에서 Smart Cane을 설명하는 모습 >
[자료: KOTRA 실리콘밸리무역관 직접 촬영]
Glidance, 자율주행 로보틱스 기반 보행 보조 기술의 새로운 접근
Glidance는 자율주행 기술을 활용한 보행 보조 로봇을 개발하는 기업으로, 기존 지팡이나 보행 보조기와는 다른 접근 방식을 보여주고 있다. 이 기술은 사용자를 직접 지지하기보다는 이동 방향을 안내해 주는 데 초점을 맞추고 있다. 로봇이 주변 환경을 인식해 경로를 함께 만들어가는 형태로 설계돼 있다. 이러한 방식은 기존 보조기기의 개념을 한 단계 확장한 것으로, 보행 보조 기술이 점차 능동적인 지원으로 발전하고 있음을 보여준다. Glidance는 보조공학 분야에 로보틱스 기술이 적용되는 흐름을 잘 보여주는 사례로, 앞으로의 발전 방향을 기대해볼 수 있는 기술로 평가된다.
<Glidance 부스(오른쪽)과 자율주행로봇 Glide의 안내를 받고 있는 시각장애인(왼쪽)>
[자료: KOTRA 실리콘밸리무역관 직접 촬영]
Sony, 장애인의 신체적 기능 지원에서 정서적 지원으로
Sony는 로봇 반려견 ‘Aibo’를 통해 보조공학 분야에서 정서적 지원 기술의 가능성을 제시했다. Aibo는 AI 기반으로 사용자의 행동과 반응을 학습하며, 사람과의 상호작용을 통해 감정적 교감을 형성하는 것이 특징이다. 전시 현장에서는 방문객이 직접 로봇과 교감하는 모습을 확인할 수 있었다. 단순한 기능 수행을 넘어 사용자와의 관계 형성에 초점을 둔 기술이라는 점이 특징이다. 특히 이러한 형태의 기술은 장애인 및 고령자의 정서적 안정과 사회적 상호작용을 지원하는 측면에서 보조공학의 적용 범위를 확장하는 사례로 볼 수 있다.
< Sony 부스에서 로봇 반려견Aibo와 소통하고 있는 방문객들 >
[자료: KOTRA 실리콘밸리무역관 직접 촬영]
KOTRA 실리콘밸리무역관은 Be My Eyes의 CMO Andy Bailey 와의 인터뷰를 통해 AI도입으로 인한 변화의 흐름을 읽어보았다.
Kotra: AI가 Be My Eyes의 서비스에 어떠한 변화를 가지고 왔는지요?
Andy: 저희 서비스는 전세계 1000만명의 자원봉사자를 기반으로 운영돼 왔습니다. 자원봉사자가 시각장애인의 스마트폰 카메라에 비친 눈앞의 장면을 실시간으로 설명해 주는 방식입니다. 여기에 2년 전부터 AI와 접목된 서비스가 제공되기 시작했죠. 현재 서비스 이용자들은 기존처럼 자원봉사자의 도움을 받을지 아니면 AI 에이전트를 활용할지 직접 선택할 수 있습니다.
Kotra: 자원봉사자와 AI 에이전트에 서비스를 요청하는 비율이 각각 어떻게 됩니까?
Andy: 현재는 매 달 300만~400만개 정도의 요청이 AI 에이전트에 들어옵니다. 자원봉사자에게는 약 12만 개의 연락이 오고요. AI 활용이 훨씬 많은 편이죠. 하지만 자원봉사 콜도 점진적으로 늘어나는 추세입니다.
Kotra: AI 에이전트에 대한 요청이 압도적으로 많군요. 두 가지 서비스 옵션 모두 이용자가 늘고 있다는 점은 그만큼 서비스를 필요로 하는 장애인이 많다는 뜻이기도 하겠네요. 동시에 AI 도입이 사용 편의성을 크게 높인 결과로 보입니다. 그렇다면 Be My Eyes 주 타겟층은 시각장애인인가요?
Andy: 주로 시각장애인과 저시력자를 대상으로 하는 서비스가 맞습니다. 하지만 고령자분들이 저희 서비스를 찾는 경우도 있습니다. 예를 들어, 자원봉사자들이 디지털 기기 사용에 서툰 어르신들께 소프트웨어 활용법을 상세히 안내해 드리는 식이죠.
Kotra: AI도입으로 많은 변화가 있다고 말씀하셨는데요. 앞으로 어떤 변화가 예상되시나요?
Andy: Be My Eyes는 AI를 보조공학에 접목시킨 최초의 회사입니다. 미래 기술이 어떻게 펼쳐지든 장애인들에게 도움이 되는 기술을 도입해 서비스의 질을 향상시키는 것이 모든 보조공학 분야에 있는 업체들의 목표라고 생각합니다. 보조공학의 앞으로의 방향은 웨어러블과 접목하는 것이라고 봅니다. Be My Eyes는 Meta와 협업해 시각장애인을 위한 스마트 안경 출시를 준비 중입니다.
< Andy Bailey, Be My Eyes CMO 인터뷰 >
[자료: KOTRA 실리콘밸리무역관 직접 촬영]
CSUN 2026에서 선보인 한국의 보조공학 기술
CSUN 2026에서는 한국 기업들 또한 보조공학 분야에서 독보적인 기술력을 바탕으로 개발한 제품들을 대거 전시했다. 특히 AI와 접목한 혁신 기술을 선보인 기업들이 큰 주목을 받았다. AI 기반 점역 플랫폼을 통해 즉석에서 점자 출력이 가능한 ‘점자 워크스테이션’을 선보인 오리누는 한국의 유망 스타트업으로, 가정과 사무실에 모두 적용 가능한 보급형 솔루션이라는 찬사를 받았다. 셀바스헬스케어는 차세대 AI 점자 단말기 ‘브레일센스 7’ 시리즈 3종을 공개하며, 정보 접근성과 활용성을 획기적으로 강화한 제품군을 소개했다.
LG전자는 장애인이 가전제품을 보다 편리하게 사용할 수 있도록 지원하며 일상의 문턱을 낮추는 다양한 접근성 솔루션을 선보였다. Dot, Inc은 디지털 이미지를 촉각 그래픽으로 변환해 형태를 인식할 수 있게 돕는 시각장애인용 태블릿을 전시했다. 또한 LG전자와 협력해 개발한 시각장애인용 키오스크 솔루션을 통해 실생활 적용 사례를 구체적으로 제시했다. CES 혁신상을 수상한 망고슬래브(Mango Slab)는 복약 정보 등 주요 내용을 즉시 점자 라벨로 제작할 수 있는 솔루션을 소개해 눈길을 끌었다. SK행복나눔재단은 시각장애 아동용 점자 학습 장난감 슬라이닷(Slidot)과 학습지 점프(JUMP)를 선보이며 교육 분야의 접근성 개선 사례를 제시했다.
< CSUN 2026에 참가한 한국 기업들 >
[자료: KOTRA 실리콘밸리무역관 직접 촬영]
시사점
CSUN 2026은 보조공학 분야에 AI 기술이 본격적으로 녹아들며 일어나는 혁신적 변화를 확인하는 자리였다. 이번 행사를 통해 AI 기능이 탑재된 제품들이 기존의 한계를 넘어 사용 장벽을 획기적으로 낮추고, 접근성을 전반적으로 개선하고 있는 흐름이 명확히 드러났다. 특히 시각, 이동, 음성 인식 등 다양한 영역에서 AI가 핵심적인 보조 역할을 수행하며 사용자 경험을 사용자 친화적인 방향으로 진화시키고 있음을 확인했다.
또한 로보틱스 기반의 ‘피지컬 AI(Physical AI)’ 솔루션이 대거 등장하며, 단순한 기능을 보조하는 수준을 넘어 사용자의 이동과 활동을 능동적으로 지원하려는 시도가 돋보였다. 여기에 정서적 교감을 가능하게 하는 감성 기술까지 더해지면서, 보조공학은 이제 신체적 보완을 넘어 사용자의 삶 전반을 케어하는 영역으로 확장되고 있다. 우리 기업들 역시 독창적인 솔루션을 통해 이러한 글로벌 흐름을 주도하고 있으며, 하드웨어와 소프트웨어를 정교하게 결합해 독보적인 경쟁력을 확보해 나가고 있다. CSUN 2026은 AI를 동력 삼아 보조공학이 기능적 확대와 접근성 개선을 동시에 실현하고 있으며, 더욱 실용적이고 사용자 중심적인 미래로 나아가고 있음을 입증했다.









