개발
NLP 기반 감정 분석 일기 앱 「아띠어리」 – End-to-End AI 서비스 구현
최근수정일: 2026. 03. 31
project thumbnail
역할
Android 앱 개발, NLP API 서버 설계 및 구현, 모델–서비스 연동 구조 설계
기여
감정 분류 정확도 50% → 90% 개선 Flask 기반 NLP API 서버 구축 및 Docker 배포 API 응답 속도 60% 개선 (2초 → 0.8초) Tencent Cloud GPU 서버 환경에서 모델 서빙 Android 앱 ↔ AI 서버 연동 구조 설계
기간
2021. 01 - 2021. 12 (12개월)
기술
Java, Python, AI, NLP, Hugging Face, Kotlin, REST API, Docker, Figma
Java
Python
Kotlin
Figma
프로젝트 개요
한 줄 정의
일기를 통한 감정 분석 결과를 UI·음악·챗봇에 실시간으로 반영하는 모바일 서비스
핵심 성과
  • 감정 분류 정확도 50% → 90% 개선
  • 응답 속도 60% 개선
  • AI 기반 서비스 실제 배포
문제 정의
  • Baseline 코드의 감정 분류 정확도 50% → 서비스 적용 불가 수준
  • API 응답 지연 → 실시간 UX 구현 불가
해결 전략
  • 데이터 정제 기반 모델 성능 개선 구조 설계
  • API 분리 기반 실시간 처리 구조 설계
  • Client–Server 구조로 모델 연산 분리
→ 전체 서비스 흐름도 (User Flow)
본문 이미지
주요 구현
  • MVVM 기반 Android 앱 구조 설계 및 개발
  • LiveData 기반 실시간 UI 반응 구조 구현
본문 이미지
  • Flask 기반 REST API 서버 구축
  • Client–Server 구조 기반 모델 연산 분리
본문 이미지
시스템 구성요소
구성 요소역할
Android App사용자 입력 및 UI
Flask API요청 처리 및 모델 호출
koBERT감정 분류
koGPT2챗봇 응답 생성
GPU Server모델 추론 처리
  • KoBERT 감정 분석 / KoGPT2 챗봇 연동
문제 해결 및 개선
감정 분류 정확도 개선
  • 문제: 모델 정확도 약 50% 수준으로 서비스 적용 불가
  • 원인: 데이터 라벨 불일치 / 감정 기준 불명확
  • 해결: Dataset Curation / 감정 기준 재정의 / 직접 라벨링 후 재학습
  • 결과: 정확도 약 90%로 개선
  • 인사이트: 모델 성능은 데이터 품질에 의존적임
API 응답 지연 개선
  • 문제: 감정 분석 대기 시간으로 UX 저하
  • 원인: 단일 API에서 모든 분석 처리
  • 해결: API 기능 분리 (/diary, /emotion) / 실시간 처리 경량화
  • 결과: 응답 시간 약 60% 단축 (2초 → 0.8초)
  • 인사이트: 서비스 품질 = 정확도 + 응답 속도
본문 이미지
모델–서비스 연동 구조 구축
  • 문제: 모바일 앱에서 AI 모델 직접 사용 불가
  • 원인: 모델 추론 환경과 앱 환경 분리 필요
  • 해결: Client–Server 구조 설계 / REST API 기반 통신 구축
  • 결과: End-to-End AI 서비스 구현
  • 인사이트: 모델 성능보다 서비스 연결 구조가 실제 가치 결정
성과
  • 자연어 처리 기반 감정 분석 정확도 90% 달성
  • API 응답 속도 60% 개선
  • AI 모델과 모바일 클라이언트를 연동한 End-to-End 서비스 구조 구축
  • Google Play Store 앱 배포
수상
교내 SW 창업경진대회 장려상 수상
인사이트
  1. 데이터 품질이 모델 성능을 결정한다
  2. 사용자 경험은 응답 속도에 크게 의존적이다
  3. 서비스 완성도는 모델이 아니라 구조에서 결정된다
스크린샷
screenshot-thumbnail
screenshot-0
screenshot-1
screenshot-2
screenshot-3