학술논문
Fine-Tuning NLLB-200 (600M) for Korean-French Subtitle Translation in Film/Drama: Performance and Reproducible BF16 Training on H100
이용수 6
- 영문명
- 발행기관
- 한국통번역교육학회
- 저자명
- Miae Yang
- 간행물 정보
- 『통번역교육연구』제23권 제2호, 109~128쪽, 전체 20쪽
- 주제분류
- 어문학 > 언어학
- 파일형태
- 발행일자
- 2025.09.30
5,200원
구매일시로부터 72시간 이내에 다운로드 가능합니다.
이 학술논문 정보는 (주)교보문고와 각 발행기관 사이에 저작물 이용 계약이 체결된 것으로, 교보문고를 통해 제공되고 있습니다.

국문 초록
The rapid growth of streaming platforms has increased the demand for high-quality subtitle translation, underscoring the need for domain adaptation in machine translation. This study fine-tuned the NLLB-200- distilled-600M model for Korean-French subtitles using BF16 mixed- precision training on NVIDIA H100 GPUs, with FLORES tags and forced BOS tokens for direction control. Trained on AI-Hub film and drama data with strict non-overlapping splits, the model achieved BLEU 84.33 and chrF 95.39 on 2,039 test sentences, with notable variation by length and genre. Qualitative review highlighted errors in discourse markers, cultural references, and colloquial forms. The study contributes a practical fine-tuning recipe, an efficient H100, BF16 setup, reproducibility protocols, and pedagogical insights, demonstrating that subtitle translation requires both technical accuracy and cultural equivalence.
영문 초록
목차
Ⅰ. Introduction
Ⅱ. Research Background
Ⅲ. Methods & Experimental Design
Ⅳ. Results and Discussion
Ⅴ. Conclusion and Discussion
References
키워드
해당간행물 수록 논문
- 통번역교육연구 제23권 제2호 목차
- 의사소통능력과 한/영 번역을 위한영어 준서법조동사 이해도 연구
- Off-Screen 음성에 대한청각장애인용 영어자막 번역연구
- 중한 AI통역의 위험요인 분석: 讯飞同传(iFlytek Simultaneous interpretation)을 중심으로
- 불교 경전 번역 속에 나타난 텍스트의 결속성
- Fine-Tuning NLLB-200 (600M) for Korean-French Subtitle Translation in Film/Drama: Performance and Reproducible BF16 Training on H100
- AI 시대 통역 직업윤리에 대한 탐색적 고찰
- 기업 언어정책과 통번역의 역할에 관한 고찰
참고문헌
교보eBook 첫 방문을 환영 합니다!
신규가입 혜택 지급이 완료 되었습니다.
바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!
