SOLUTION
home
OGQ GYN AI for Image
home
🔥

OGQ GYN Developers Day #20 : DHR 기반 EN675 화재 고도화

게시일
2024/04/15
관련 태그
AI
DHR
Knowledge Distillation
Open-vocabulary
Grounding DINO
게시자
Sanghyun Jo
Sanghyun Jo
1 more property
OGQ GYN Developers Day는 OGQ GYN의 모델 개발 과정 및 논문 등을 많은 기업 분들께 발표하는 자리로, 매월 마지막 주 수요일에 진행되고 있습니다.
이번 세미나에선 OGQ의 신규 논문 기반 EN675 사람/화재 검출 개선에 대해 공유드렸습니다.

Contents

세미나 개요

일시 : 2024년 04월 03일 13:00 ~ 14:00
장소 : Zoom 미팅
참여기업 (가나다순)
베스트디지탈 BEST DIGITAL
웹게이트 WEBGATE
한국씨텍
순서
1.
참여 업체 소개
2.
OGQ GYN 발표
사회자: OGQ GYN 우재현 연구원
발표자: OGQ GYN 조상현 연구원
3.
Q&A

Presentation Material

240403_OGQ_조상현_Eyenix 발표.pdf
2715.5KB

1. Previous Presentation Summary

지난 컨퍼런스에서는 대규모 트래픽을 처리해야 하는 API를 구축할 때에 고려해야 할 점과 오지큐에서 이를 해결한 방법에 대해서 공유드렸습니다.

2. Problem

Data Preparetion

데이터 준비는 AI 모델 개발 과정에서 80%의 시간을 차지합니다.
개발을 위해 공개되어있는 데이터들은 고양이, 강아지와 같은 흔한 카테고리는 수가 많지만 그렇지 않은 데이터는 수가 적어 균형이 맞지 않는 class imbalance 문제를 갖고 있습니다.
이를 위해 게임 등 합성 데이터를 활용하는 방법이 제안되었지만 여전히 실제 데이터와는 차이가 있어 어려움이 있습니다.

2. Solution

Knowledge Distillation

데이터 준비 시간을 줄이기 위해서 Knowledge distillation 기법을 사용합니다.
기존 기법은 인간 작업자들이 모델을 학습할 수 있는 데이터를 만들어야 하는데, 이는 에러가 발생할 수 있고 매우 많은 시간이 걸립니다.
Knowledge distillation은 사람이 정해준 태그 정보만을 가지고 Segmentation mask를 생성할 수 있는 OGQ 자체 연구 기술을 활용하여 학습 데이터 생성 시간을 줄이고 성능을 개선하였습니다.
결과적으로 기존 화재 검출 연구 및 다양한 객체를 검출 할 수 있는 Grounding DINO와 같은 Open-vocabulary 모델과 비교하여 큰 폭의 성능이 개선된 모델을 학습할 수 있었습니다.
같은 데이터로 학습하였음에도 불구하고 NPU 타입과 GPU 타입 간의 성능 차이를 개선하는 것을 다음 목표로 하고 있습니다.
Search
제2회 네이버 오지큐마켓 인공지능 경진대회
제2회 네이버 오지큐마켓 인공지능 경진대회
OGQ GYN의 기술블로그를 비상업적으로 사용 시 출처를 남겨주세요. 상업적 용도를 원하실 경우 문의 부탁드립니다. E-mail. tech@gynetworks.com
OGQ Corp. All right reserved.