- 영문명
- Designing a RAG-based Model to Improve the Reliability of Generative AI
- 발행기관
- 한국전자통신학회
- 저자명
- 문용관(Yong-Kwan Mun) 이종원(Jong-Won Lee) 박정석(Jung-Seok Park) 정회경(Hoe-Kyung Jung)
- 간행물 정보
- 『한국전자통신학회 논문지』제20권 제4호, 741~750쪽, 전체 10쪽
- 주제분류
- 공학 > 전자/정보통신공학
- 파일형태
- 발행일자
- 2025.08.31
국문 초록
LLM(Large Language Model)의 활용이 활발해지면서, 외부 지식을 연계하여 보다 정확한 정보를 검색할 수 있는 RAG(Retrieval-Augmented Generation) 시스템의 중요성이 높아지고 있다. 본 논문에서는 LLM의 구조적인 한계로 편향적 답변 제공, 신뢰할 수 없는 답변의 생성, 문장이나 문단의 길이가 길어지면 문맥에 대한 이해력이 미흡한 점, 일관된 응답을 제공하지 못하는 점을 보완하고 개선하고자 한다. 프로세스를 세분화하여 4개의 모듈인 지식 검색기, 질의 인코더, 답변 만족도 평가기, 지식 증강 생성기로 구성하고 각 모듈이 단계별로 프로세스를 수행하도록 하였다. 또한, LLM이 긴 문장에 대한 이해력을 높이기 위해 MixedBread Embed Large와 같은 임베딩 특화 모델을 활용하였다. 편향적인 답변 문제를 해결하기 위해 외부 지식베이스를 이용하였고, LLM이 생성한 답변에 대한 신뢰성과 일관성 제공을 위해 답변 만족도 평가기를 통해 정제된 답변이 제공되도록 하였다. 이러한 모듈 기반 접근 방식을 통해 기존 LLM보다 더 높은 정확성과 복잡한 언어 환경에서 유용하게 적용할 수 있을 것으로 사료된다.
영문 초록
Recently, as the use of the LLM(Large Language Model) has become active, the importance of the RAG (Retrieval-augmented Generation) system, which can search for more accurate information by linking external knowledge, is increasing. In this paper, the structural limitations of LLM are providing biased answers, generating unreliable answers, and the lack of understanding of the context if the length of sentences or paragraphs is prolonged, and the inability to provide consistent responses are to be supplemented and improved. The process was subdivided into four modules: a knowledge searcher, a query encoder, an answer satisfaction evaluator, and a knowledge augmentation generator, and each module was configured to perform the process step by step. In addition, embedding-specific models such as Mixed Bread Embedded Large were used to enhance the understanding of sentences with long LLM. An external knowledge base was used to solve biased answer problems, and refined answers were provided through an answer satisfaction evaluator to provide reliability and consistency for the answers generated by LLM. It is believed that this module-based approach can be usefully applied in higher accuracy and complex language environments than existing LLM.
목차
Ⅰ. 서론
Ⅱ. 관련연구
Ⅲ. RAG 시스템 설계
Ⅳ. 시스템 구현
V. 결 론
References
키워드
해당간행물 수록 논문
참고문헌
최근 이용한 논문
교보eBook 첫 방문을 환영 합니다!
신규가입 혜택 지급이 완료 되었습니다.
바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!
