본문 바로가기

추천 검색어

실시간 인기 검색어

학술논문

한국어 문서 요약 효율화를 위한 Gemma2 모델 미세조정 및 프롬프트 튜닝

이용수  0

영문명
Fine-Tuning and Prompt Tuning of the Gemma2 Model for Efficient Korean Document Summarization
발행기관
한국스마트미디어학회
저자명
김승주(Seung Ju Kim) 정세훈(Se Hoon Jung) 심춘보(Chun Bo Shim)
간행물 정보
『스마트미디어저널』제14권 제8호, 81~90쪽, 전체 10쪽
주제분류
공학 > 컴퓨터학
파일형태
PDF
발행일자
2025.08.29
4,000

구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

1:1 문의
논문 표지

국문 초록

본 논문에서는 Gemma2-9B-IT 모델의 한국어 문서 요약 성능을 향상하기 위한 미세조정 및 프롬프트 튜닝 방법을 제안한다. Gemma2 모델은 주로 영어 중심으로 사전학습돼 한국어와 같은 비영어권 언어에 대한 처리 능력이 제한적이다. 이를 개선하기 위해 AI Hub의 한국어 ‘문서 요약 텍스트’ 데이터셋을 전처리 후 미세조정하고, 메모리 효율적인 학습을 위해 Unsloth 프레임워크와 LoRA 기반 파라미터 효율적 미세조정을 적용했다. 또한 “간결하고 핵심적인 내용만 포함해 자연스러운 요약문을 생성해”라는 최적화된 프롬프트를 적용해 요약 성능을 향상했다. 본 논문에서 제안한 모델의 성능을 평가한 결과 기본 모델 대비 BERTScore에서 1.68%, RDASS에서 34%의 성능 향상을 보였다. 제거 연구를 통해 미세조정이 20.18%, 프롬프트 튜닝이 9.39% 성능 향상에 기여도가 있음을 확인했으며, 두 기법 간 일부 중복되는 성능 향상 영역이 존재함을 발견했다. 특히 원문과 참조 요약문 모두에 대한 의미적 유사성 측면에서 큰 개선을 보였으나, 응답 시간은 56% 증가했다. 본 연구는 대형 언어 모델의 특정 언어 및 도메인 적응을 위한 효과적인 방법론을 제시하고, 미세조정과 프롬프트 튜닝의 개별 및 복합 효과를 체계적으로 분석해 향후 다양한 언어와 작업에 대한 최적화 전략 수립에 중요한 통찰을 제공한다.

영문 초록

This paper proposes fine-tuning and prompt tuning methods to enhance the Korean document summarization performance of the Gemma2-9B-IT model. The Gemma2 model was primarily pre-trained on English data, resulting in limited performance on non-English languages such as Korean. To address this limitation, we preprocess the Korean 'Document Summarization Text' dataset provided by AI Hub and apply parameter-efficient fine-tuning using the Unsloth library and LoRA to enable memory-efficient training. Additionally, we design an optimized prompt: “Generate a concise and natural summary that includes only the essential information,” to further improve summarization quality. For performance evaluation, we utilize BERTScore and RDASS, which rely on semantic embeddings. Experimental results show that the proposed approach outperforms the base model by 1.68% in BERTScore and 34% in RDASS. An ablation study reveals that fine-tuning contributes 20.18% and prompt tuning 9.39% to the overall improvement, with some overlapping effects observed between the two techniques. Notably, the model demonstrates substantial improvement in semantic similarity between the generated summary and the reference summary, although the response time increases by 56%. This study presents an effective methodology for adapting large language models to specific languages and domains, and provides systematic insights into the individual and combined effects of fine-tuning and prompt tuning, offering valuable guidance for optimization strategies in various languages and tasks.

목차

Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 제안 방법
Ⅳ. 실험 및 결과
Ⅴ. 결론

키워드

해당간행물 수록 논문

참고문헌

교보eBook 첫 방문을 환영 합니다!

신규가입 혜택 지급이 완료 되었습니다.

바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

교보e캐시 1,000원
TOP
인용하기
APA

김승주(Seung Ju Kim),정세훈(Se Hoon Jung),심춘보(Chun Bo Shim). (2025).한국어 문서 요약 효율화를 위한 Gemma2 모델 미세조정 및 프롬프트 튜닝. 스마트미디어저널, 14 (8), 81-90

MLA

김승주(Seung Ju Kim),정세훈(Se Hoon Jung),심춘보(Chun Bo Shim). "한국어 문서 요약 효율화를 위한 Gemma2 모델 미세조정 및 프롬프트 튜닝." 스마트미디어저널, 14.8(2025): 81-90

결제완료
e캐시 원 결제 계속 하시겠습니까?
교보 e캐시 간편 결제