DanPark - 단주차 (주차 공간 탐지 시스템)
YOLOv5 + React Native로 실시간 주차 공간 탐지
데모 영상
DanPark 데모 영상
YOLOv5 기반 실시간 주차 공간 탐지 데모
팀/역할
기간
기술 스택
프로젝트 소개
DanPark는 단국대학교 주차장 특화 스마트 주차 공간 탐지 시스템입니다. YOLOv5 파인튜닝으로 주차 공간 인식률을 71%에서 92%로 21%p 향상시켰으며(confidence ≥ 0.7 기준), 핸드폰으로 주차장을 직접 촬영한 이미지 약 3,000장을 Roboflow 기반 데이터 증강으로 9,000장까지 확대하여 학습했습니다. 공개 데이터셋(CNR-EXT)으로 pre-training 후 캠퍼스 환경에 맞게 fine-tuning하는 전략으로, 범용 모델의 한계를 극복했습니다.
내 역할 및 기여도
YOLOv5 파인튜닝 및 데이터 라벨링 (LabelImg, 3,000장 직접 라벨링), Roboflow 데이터 증강으로 학습 데이터 3배 확대 (3,000장 → 9,000장), 캠퍼스 특화 데이터 수집·라벨링 및 fine-tuning 전략 수립, AWS EC2 서버 배포 & ELK Stack 모니터링 구축, Agile Scrum 프로세스 도입 및 팀 리드
AI 학습 과정
데이터셋
학습 파이프라인
Pre-trained 모델 (CNR-EXT 14만장)
해외 주차장 데이터 기반 범용 인식 모델 확보

캠퍼스 데이터 수집 & LabelImg 라벨링
단국대 주차장 핸드폰 직접 촬영 3,000장 수집·라벨링

Roboflow 데이터 증강 (3,000→9,000장)
회전, 반전, 밝기 조절 기반 증강으로 3배 확대
Fine-tuning & 하이퍼파라미터 튜닝
체계적 실험 설계로 최적 조합 도출

학습 결과
핵심 기능
YOLOv5 기반 주차 공간 탐지
단국대 주차장 특화 학습 데이터로 파인튜닝한 객체 인식 모델
실시간 CCTV 영상 분석
CCTV 영상을 실시간으로 분석하여 주차 가능 공간 표시
GPS 연동 자동 실행
단국대 주차장 근처 접근 시 자동으로 앱 실행
주차장 실시간 현황
주차장별 실시간 주차 가능 공간 수 및 혼잡도 표시
프로젝트 갤러리
기술적 도전과 해결
캠퍼스 특화 데이터 부족 & 학습 최적화
문제
공개 데이터셋(CNR-EXT)은 해외 주차장 기반이라 단국대 캠퍼스 환경(경사면, 조명, 카메라 앵글)에서 인식률이 71%에 그침. 학습 시간도 길어 효율적인 실험 설계가 필요
해결
핸드폰으로 주차장을 직접 촬영해 3,000장 수집 후 LabelImg로 라벨링, Roboflow 기반 데이터 증강으로 9,000장 확대. 체계적 하이퍼파라미터 튜닝과 confidence ≥ 0.7 필터링으로 최적 조합 도출
결과
주차 공간 인식률 92% 달성 (pre-trained 71% 대비 21%p 향상), 추론 속도 8~9ms/패치
서버 배포 & 팀 리드
문제
팀원 중 1명은 프로젝트 경험이 처음, React Native/Spring Boot/AI 기술 스택이 광범위하여 일정 관리와 기술 의사결정 동시 수행 필요
해결
Agile Scrum 도입 (2주 스프린트, 주 2회 스탠드업), AWS EC2 서버 배포 + Nginx 리버스 프록시, ELK Stack 모니터링, Contract-First 통합 테스트
결과
전체 기능 마감 1주 전 완료, SW중심대학사업단 인기상 수상