SKT FLY AI

[SKT FLY AI] 청각장애인을 위한 AI 기반 실시간 양방향 수어 번역 앱

48965 2024. 11. 12. 20:11

개발 기간 : 2024.07.29~2024.08.30 (1개월)

팀 구성 : AI 개발 2명, 프론트엔드 개발 1명, MLOps 1명 (총 4명)

본인 역할 : MLOps

앱 소개

프로젝트 배너

https://www.skttechacademy.com/nonmember/flyAi/flyAiProjectReviewDetail

 

프레임워크 및 핵심 라이브러리

  • FastAPI 0.112.2
  • Mediapipe
  • SQLAlchemy
  • Pytorch 2.2.2
  • SpringBoot 3.2.8
  • Spring Data JPA

AI Model

  • CNN Base Model (.pth.tar) 
  • FastText(cc.ko.300.bin)

DB

  • Postgresql (pgvector)

Infra

  • AWS RDS
  • AWS S3
  • Chat GPT API
  • Ngrock

프로젝트 개요

SKT FLY AI 해커톤에서 AI를 활용한 ESG 관련 서비스 개발을 주제로, 청각장애인을 위한 AI 기반 실시간 양방향 수어 번역 앱을 개발하였습니다.

 

프로젝트 내에서 본인의 역할 - MLOps, 팀장

(1) Sign2Speech 기능 구현

  • 학습된 CNN 모델 서빙 로직 구현 (FastAPI)
  • Chat GPT API 연동 파이프라인 구축

(2) Speech2Sign 기능 구현

  • 국립수어사전 공공데이터 API를 활용하여 16,500개의 수어 글로스와 수어 영상을 매핑한 데이터베이스를 구축.
  • 벡터 임베딩 모델 FastText 활용한 벡터 DB 구축
  • Pgvector 활용 유사도 검색 기능 구현 (SpringBoot)
  • Mediapipe 활용 저장된 수어 영상 내 57개의 관절 키포인트 프레임 단위 추출 로직 개발(FastAPI)
  • DB에 저장된 키포인트 파일을 읽어 수어 영상을 생성하는 기능 구현 (FastAPI)

(1) Sign2Speech 파이프라인

 

 

(2) Speech2Sign 파이프라인

 

시스템 구성도

 

시현 영상

Sign2Speech 결과물

 

 

Speech2Sign

생성된 수어 모션

 

실제 수어 영상

 

 

 

+ 최종 성과 발표 (을지로 SKT 타워 수펙스홀)

첫 번째 순서로 발표 진행