💬

KoBERT/KoGPT/KoBART 기반 언어처리 Application 개발

분야
머신러닝
자연어처리
no
8
세부 설명
■ 연구 내용 · SKT 에서 공개한 한국어 Pre-trained LM(KoBERT, KoGPT2, KoBART)를 응용한 다양한 한국어 NLP 모델 및 APP 개발 ■ 연구 목적 · 사전 학습된 한국어 언어 모델 기반 자연어 처리 APP 개발 · KoBERT/KoGPT/KoBART 기반의 APP 생태계 확장 ■ 활용 영역 · AI Ethics(혐오 표현 검출), Green AI(모델 경량화, 효율적 학습), Intelligent inferface(질의응답, 대화, 요약 등) 등 ■ 관련 경험/역량 · 딥러닝 기반의 자연어 처리 경험, 최신 자연어 처리 연구/개발 동향 이해

01 멘토 소개

TaeYoonKim.jpg

김태윤

T3K 에서 언어 모델 사전 학습 및 이를 기반으로한 자연어 처리 모델링을 연구/개발하고 있습니다.
초대형 언어 모델링 및 대화형 인터페이스에 필요한 언어 이해, 질의 응답, 응답 생성 등의 기술에 관심이 많습니다.

02 프로젝트 소개

최근에 BERT 나 GPT 등 Transformer 기반의 사전 학습된 언어 모델 (Pre-trained language model) 을 기반으로 한 자연어 처리 기법이 소개된 이후에 자연어 처리 성능은 비약적으로 개선되고 있습니다.
SKT 에서는 2019년 부터 한국어 사전 학습 모델인 KoBERT, KoGPT2, KoBART 등을 공개하고, 이것을 기반으로 하는 다양한 자연어 처리 모델을 연구/개발 해오고 있습니다.
이 프로젝트에서는 KoBERT, KoGPT2, KoBART 등을 활용하는 자연어 처리 모델의 개발을 진행해 보고자 합니다. 예를 들어 AI Ethics(혐오 표현 검출), Green AI(모델 경량화, 효율적 학습), Intelligent inferface(질의응답, 대화, 요약 등) 와 관련된 모델을 개발하고 어플리케이션을 개발해 볼 수 있습니다. 물론 다른 창의적인 아이디어도 환영합니다.
선정된 팀에게는 사전 학습 언어 모델 기반의 자연어 처리 모델링에 관한 기술적 조언을 제공할 계획입니다.

03 이런 fellow를 찾습니다

사전 학습 언어 모델을 사용하는 창의적인 자연어 처리 어플리케이션을 개발하고 싶으신 분
딥러닝 기반의 자연어 처리 경험이 있는 분
최신 자연어 처리 연구/개발 동향 이해가 있는 분