SOLUTION
home
OGQ GYN AI for Image
home
🔥

OGQ GYN Developers Day #20 : DHR 기반 EN675 화재 고도화

게시일
2024/04/15
관련 태그
AI
DHR
Knowledge Distillation
Open-vocabulary
Grounding DINO
게시자
Sanghyun Jo
Sanghyun Jo
1 more property
OGQ GYN Developers Day는 OGQ GYN의 모델 개발 과정 및 논문 등을 많은 기업 분들께 발표하는 자리로, 매월 마지막 주 수요일에 진행되고 있습니다.
이번 컨퍼런스에선 OGQ의 신규 논문 기반 EN675 사람/화재 검출 개선에 대해 공유드렸습니다.

Contents

Conference 개요

일시 : 2024년 04월 03일 13:00 ~ 14:00
장소 : Zoom 미팅
참여기업 (가나다순)
베스트디지탈 BEST DIGITAL
웹게이트 WEBGATE
한국씨텍
순서
1.
참여 업체 소개
2.
OGQ GYN 발표
사회자: OGQ GYN 우재현 연구원
발표자: OGQ GYN 조상현 연구원
3.
Q&A

Presentation Material

240403_OGQ_조상현_Eyenix 발표.pdf
2715.5KB

1. Previous Presentation Summary

지난 컨퍼런스에서는 대규모 트래픽을 처리해야 하는 API를 구축할 때에 고려해야 할 점과 오지큐에서 이를 해결한 방법에 대해서 공유드렸습니다.

2. Problem

Data Preparetion

데이터 준비는 AI 모델 개발 과정에서 80%의 시간을 차지합니다.
개발을 위해 공개되어있는 데이터들은 고양이, 강아지와 같은 흔한 카테고리는 수가 많지만 그렇지 않은 데이터는 수가 적어 균형이 맞지 않는 class imbalance 문제를 갖고 있습니다.
이를 위해 게임 등 합성 데이터를 활용하는 방법이 제안되었지만 여전히 실제 데이터와는 차이가 있어 어려움이 있습니다.

2. Solution

Knowledge Distillation

데이터 준비 시간을 줄이기 위해서 Knowledge distillation 기법을 사용합니다.
기존 기법은 인간 작업자들이 모델을 학습할 수 있는 데이터를 만들어야 하는데, 이는 에러가 발생할 수 있고 매우 많은 시간이 걸립니다.
Knowledge distillation은 사람이 정해준 태그 정보만을 가지고 Segmentation mask를 생성할 수 있는 OGQ 자체 연구 기술을 활용하여 학습 데이터 생성 시간을 줄이고 성능을 개선하였습니다.
결과적으로 기존 화재 검출 연구 및 다양한 객체를 검출 할 수 있는 Grounding DINO와 같은 Open-vocabulary 모델과 비교하여 큰 폭의 성능이 개선된 모델을 학습할 수 있었습니다.
같은 데이터로 학습하였음에도 불구하고 NPU 타입과 GPU 타입 간의 성능 차이를 개선하는 것을 다음 목표로 하고 있습니다.
Search
OGQ GYN Developers Day #22 : ViT-CoMer
OGQ GYN Developers Day #22 : ViT-CoMer
OGQ GYN의 기술블로그를 비상업적으로 사용 시 출처를 남겨주세요. 상업적 용도를 원하실 경우 문의 부탁드립니다. E-mail. tech@gynetworks.com
OGQ Corp. All right reserved.