- 영문명
- Fine-Tuning and Prompt Tuning of the Gemma2 Model for Efficient Korean Document Summarization
- 발행기관
- 한국스마트미디어학회
- 저자명
- 김승주(Seung Ju Kim) 정세훈(Se Hoon Jung) 심춘보(Chun Bo Shim)
- 간행물 정보
- 『스마트미디어저널』제14권 제8호, 81~90쪽, 전체 10쪽
- 주제분류
- 공학 > 컴퓨터학
- 파일형태
- 발행일자
- 2025.08.29
4,000원
구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.
국문 초록
본 논문에서는 Gemma2-9B-IT 모델의 한국어 문서 요약 성능을 향상하기 위한 미세조정 및 프롬프트 튜닝 방법을 제안한다. Gemma2 모델은 주로 영어 중심으로 사전학습돼 한국어와 같은 비영어권 언어에 대한 처리 능력이 제한적이다. 이를 개선하기 위해 AI Hub의 한국어 ‘문서 요약 텍스트’ 데이터셋을 전처리 후 미세조정하고, 메모리 효율적인 학습을 위해 Unsloth 프레임워크와 LoRA 기반 파라미터 효율적 미세조정을 적용했다. 또한 “간결하고 핵심적인 내용만 포함해 자연스러운 요약문을 생성해”라는 최적화된 프롬프트를 적용해 요약 성능을 향상했다. 본 논문에서 제안한 모델의 성능을 평가한 결과 기본 모델 대비 BERTScore에서 1.68%, RDASS에서 34%의 성능 향상을 보였다. 제거 연구를 통해 미세조정이 20.18%, 프롬프트 튜닝이 9.39% 성능 향상에 기여도가 있음을 확인했으며, 두 기법 간 일부 중복되는 성능 향상 영역이 존재함을 발견했다. 특히 원문과 참조 요약문 모두에 대한 의미적 유사성 측면에서 큰 개선을 보였으나, 응답 시간은 56% 증가했다. 본 연구는 대형 언어 모델의 특정 언어 및 도메인 적응을 위한 효과적인 방법론을 제시하고, 미세조정과 프롬프트 튜닝의 개별 및 복합 효과를 체계적으로 분석해 향후 다양한 언어와 작업에 대한 최적화 전략 수립에 중요한 통찰을 제공한다.
영문 초록
This paper proposes fine-tuning and prompt tuning methods to enhance the Korean document summarization performance of the Gemma2-9B-IT model. The Gemma2 model was primarily pre-trained on English data, resulting in limited performance on non-English languages such as Korean. To address this limitation, we preprocess the Korean 'Document Summarization Text' dataset provided by AI Hub and apply parameter-efficient fine-tuning using the Unsloth library and LoRA to enable memory-efficient training. Additionally, we design an optimized prompt: “Generate a concise and natural summary that includes only the essential information,” to further improve summarization quality. For performance evaluation, we utilize BERTScore and RDASS, which rely on semantic embeddings. Experimental results show that the proposed approach outperforms the base model by 1.68% in BERTScore and 34% in RDASS. An ablation study reveals that fine-tuning contributes 20.18% and prompt tuning 9.39% to the overall improvement, with some overlapping effects observed between the two techniques. Notably, the model demonstrates substantial improvement in semantic similarity between the generated summary and the reference summary, although the response time increases by 56%. This study presents an effective methodology for adapting large language models to specific languages and domains, and provides systematic insights into the individual and combined effects of fine-tuning and prompt tuning, offering valuable guidance for optimization strategies in various languages and tasks.
목차
Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 제안 방법
Ⅳ. 실험 및 결과
Ⅴ. 결론
키워드
해당간행물 수록 논문
- 스마트미디어저널 제14권 제8호 목차
- 스마트축사 내 빗물 활용을 통한 하이브리드 급수 시스템 설계 및 효용성 분석
- 온라인 혐오 표현과 사이버불링 예방 전략 탐색을 위한 실증적 연구
- 홈 액티비티 컨텍스트 분석을 통한 에어솔루션 연구: 홈 액티비티 구성 요소 프레임웍을 기반으로
- ViT 모델을 활용한 토마토 병해 탐지 연구
- 스마트팜 구동기 복합 상태기반 고장 시기 예측 연구
- 딥러닝 기반 객체 탐지를 활용한 배전공가 이상 탐지 모델 연구
- GPU 상에서의 PIPO 블록암호 CTR모드 최적 구현
- sLLM을 이용한 맞춤형 다층 설문지 형식의 진로적성검사 시스템 개발 연구
- 조류 피해 예방시스템의 객체 탐지 모델 성능향상 기법 연구
- 고성능·비잔틴 내성을 위한 RAFT-PBFT 하이브리드 합의 구조의 설계 및 검증
- 한국어 문서 요약 효율화를 위한 Gemma2 모델 미세조정 및 프롬프트 튜닝
- RAG 기반의 갈등 예측과 해소를 위한 추천 문장 생성
- 대인 관계 유형이 적용된 프롬프트 엔지니어링을 통한 게임 내 사용자와 NPC 간 상호작용 개선 연구
참고문헌
관련논문
공학 > 컴퓨터학분야 BEST
- 지도서비스를 이용한 위치 기반 관광 빅데이터의 시각화
- 공서비스 공급 관점에서 살펴본 비의료 건강관리서비스 인증 시범사업과 의료민영화 논쟁
- 인적 특성을 반영한 안전 정보디자인의 개념과 특징
공학 > 컴퓨터학분야 NEW
- 스마트미디어저널 제14권 제8호 목차
- 스마트축사 내 빗물 활용을 통한 하이브리드 급수 시스템 설계 및 효용성 분석
- 온라인 혐오 표현과 사이버불링 예방 전략 탐색을 위한 실증적 연구
최근 이용한 논문
교보eBook 첫 방문을 환영 합니다!
신규가입 혜택 지급이 완료 되었습니다.
바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!
