
[AI 말평 대회] 참여기 #8: 2주차(3) - 듀얼 인코더(간편 버전) 구현과 실험
AI 말평 대회 참여기 #8: 2주차(3) - 듀얼 인코더(간편 버전) 구현과 실험 지난 편(#7)에서 Retrieval 구조와 데이터셋, PPL 기반 후보 수집을 정리했다. 이번 편은 가장 빠르게 결과를 확인하기 위해, 파인튜닝 없이 Sentence-Transformers + HF Cross-Encoder로 구성한 간편 버전을 기록한다. 커스텀 듀...
AI 말평 대회 참여기 #8: 2주차(3) - 듀얼 인코더(간편 버전) 구현과 실험 지난 편(#7)에서 Retrieval 구조와 데이터셋, PPL 기반 후보 수집을 정리했다. 이번 편은 가장 빠르게 결과를 확인하기 위해, 파인튜닝 없이 Sentence-Transformers + HF Cross-Encoder로 구성한 간편 버전을 기록한다. 커스텀 듀...
AI 말평 대회 참여기 #7: 2주차(2) - Retrieval 설계와 데이터 구조 정리 이번 글은 2주차 두 번째 학습일지로, 이번주의 회의 결과를 정리한다. 듀얼 인코더 학습 구현과 성능 평가는 다음 글에서 다룰 예정이다. 1. 팀 회의 결과 요약 사실 앞서 언급했지만 현재 Test set에는 정답이 존재하지 않기에 Retrieval이 사...
AI 말평 대회 참여기 #6: 2주차(1) - RAG 구조 & OMNI RAG & RAGChecker 본격적인 모델 학습 과정을 시작하기 이전에 RAG에 대한 개념을 확실히 잡고 가면 좋겠다는 생각이 들어서 RAG에 대한 학습을 진행하였다. 학습 자료는 가천대학교 신기술특론 강의에서 셀렉트스타 이정수 선임연구원님과 KT의 허윤석 선임연...
AI 말평 대회 참여기 #5: 1주차(5) - 프롬프트 설계, CoT, 모델 성능 비교 이번 글에서는 본격적인 추론을 위한 프롬프트 설계에 대해 공부해본 내용을 정리해본다. 1. 프롬프트 개념과 프롬프트 엔지니어링 1-1. 프롬프트란? LLM에 입력되는 명령어 또는 지시문 모델은 프롬프트를 기반으로 다음 토큰을 예측해 답변을 생성 ...
AI 말평 대회 참여기 #4: 1주차(4) - 디코딩 파라미터와 양자화(Quantization)의 개념 그리고 추론코드 분석 테스트 해볼만한 모델을 찾았으니 본격적으로 모델 추론을 돌려보기로 결심하였다. 팀장님께서 추론을 돌리기 전 디코딩 파라미터와 추론 코드에 대한 공부를 하면 좋을 것 같다고 말씀하셔서 이번 글에서는 Baseline 추론 과정을 ...
AI 말평 대회 참여기 #3: 1주차(3) - 리더보드 분석과 후보 모델 탐색 이전 글에서는 평가 지표를 정리했다면, 이번 글에서는 Horangi LLM 리더보드와 벤치마크를 분석하고 가장 좋은 모델을 찾기 위한 Baseline 후보 모델 탐색을 진행한 과정을 정리한다. 모델 탐색 이전에 팀원분이 호랑이 Horangi LLM 리더보드와 벤치마크 점...
AI 말평 대회 참여기 #2: 1주차(2) - 평가 지표 정리 1주차 첫 번째 시간에는 모델 탐색과 대회 이해에 집중했다. 이번 글에서는 가장 먼저 대회 평가 지표를 정리하고, Exact Match(EM) + BLEURT + BERTScore + ROUGE-1과 공식 코드 핵심 부분 및 수식까지 살펴보기로 결정하였다. 대회 공식 평가지표 코드는 G...
AI 말평 대회 참여기 #1: 대회 소개와 목표 드디어 AI 말평 대회 참여기를 시작한다! 이번 포스트에서는 대회 소개와 내가 참여하게 된 계기, 목표와 진행 계획을 정리해본다. 1. 대회 소개 대회명: 2025 한국어 어문 규범 기반 생성(RAG) (가 유형) 주최: 국립국어원 대회 링크: 공식 홈페이지 이번 대회는 한국어 ...
ISNLP 오픈 튜토리얼 수강 후기 드디어 여름방학 도중, 8일간 진행된 ISNLP 오픈 튜토리얼이 끝났다. 돌아보면 8일간 정말 많은 변화가 있었던 것 같다. 1. NLP에 빠지다 언어를 다룬다는 게 이렇게 재미있는 줄 몰랐다. 사실 이전까지는 눈으로 볼 수 있는 AI 이미지 생성쪽에 관심이 있었는데, 이번 튜토리얼을 수강하면서 NLP에도 ...
8일차: Pre-trained Model과 Hugging Face 이번 8일차 수업에서는 사전학습(Pre-train)된 모델과 Hugging Face 생태계를 중심으로 최신 NLP 모델 활용법을 배웠다. BERT, GPT, T5, BART와 같은 최신 Transformer 계열 모델과 Hugging Face 라이브러리를 배우면서 앞으로의 학습·프로...