LLM 프로덕션 엔지니어링
2025년 12월 11일 출간
국내도서 : 2025년 09월 11일 출간
- eBook 상품 정보
- 파일 정보 PDF (6.41MB) | 519 쪽
- ISBN 9791124205136
- 지원기기 교보eBook App, PC e서재, 리더기, 웹뷰어
-
교보eBook App
듣기(TTS) 가능
TTS 란?텍스트를 음성으로 읽어주는 기술입니다.
- 전자책의 편집 상태에 따라 본문의 흐름과 다르게 텍스트를 읽을 수 있습니다.
- 이미지 형태로 제작된 전자책 (예 : ZIP 파일)은 TTS 기능을 지원하지 않습니다.
PDF 필기가능 (Android, iOS)
판매가 22,680원
10% 할인 | 5%P 적립이 상품은 배송되지 않는 디지털 상품이며,
교보eBook앱이나 웹뷰어에서 바로 이용가능합니다.
카드&결제 혜택
- 5만원 이상 구매 시 추가 2,000P
- 3만원 이상 구매 시, 등급별 2~4% 추가 최대 416P
- 리뷰 작성 시, e교환권 추가 최대 200원
작품소개
이 상품이 속한 분야
옮긴이 머리말 xiii
추천의 글 xv
베타리더 후기 xvii
추천사 xix
시작하며 xxii
감사의 글 xxvii
이 책에 대하여 xxviii
CHAPTER 1 LLM 소개 1
1.1 언어 모델의 짧은 역사 1
1.2 LLM이란 무엇인가? 2
1.3 LLM의 기본 구성 요소 3
1.4 실습 ❶ LLM을 활용한 번역(GPT-3.5 API) 19
1.5 실습 ❷ 퓨샷 학습을 통한 LLM 출력 제어 20
1.6 요약 22
CHAPTER 2 LLM 아키텍처와 환경 23
2.1 트랜스포머 이해하기 23
2.2 트랜스포머 모델의 설계와 선택 33
2.3 트랜스포머 아키텍처 최적화 기법 41
2.4 GPT 아키텍처 43
2.5 대형 멀티모달 모델 소개 46
2.6 상용 모델 vs. 공개 모델 vs. 오픈소스 언어 모델 52
2.7 LLM의 응용 및 사용 사례 59
2.8 요약 67
CHAPTER 3 LLM의 실제 응용 69
3.1 환각과 편향 이해하기 69
3.2 LLM 출력에서 환각을 줄이는 방법 71
3.3 LLM 성능 평가 79
3.4 요약 84
CHAPTER 4 프롬프트 엔지니어링 소개 86
4.1 프롬프팅과 프롬프트 엔지니어링 86
4.2 프롬프트 테크닉 91
4.3 프롬프트 인젝션과 보안 97
4.4 요약 100
CHAPTER 5 RAG 102
5.1 왜 RAG인가? 102
5.2 밑바닥부터 시작하는 기본 RAG 파이프라인 구축 106
5.3 요약 119
CHAPTER 6 LangChain 및 LlamaIndex 소개 120
6.1 LLM 프레임워크 120
6.2 LangChain 소개 121
6.3 실습 ❶ LangChain을 사용한 LLM 기반 애플리케이션 구축 126
6.4 실습 ❷ 뉴스 기사 요약기 구축 130
6.5 LlamaIndex 소개 137
6.6 LangChain vs. LlamaIndex vs. OpenAI Assistant 145
6.7 요약 147
CHAPTER 7 LangChain을 사용한 프롬프트 작성 148
7.1 LangChain 프롬프트 템플릿이란 148
7.2 퓨샷 프롬프트와 예시 선택기 156
7.3 LangChain에서 체인이란 163
7.4 실습 ❶ 출력 파서를 사용한 출력 관리 171
7.5 실습 ❷ 뉴스 기사 요약기 개선 183
7.6 실습 ❸ 텍스트 데이터를 활용한 지식 그래프 생성: 숨겨진 연결 고리 발견하기 191
7.7 요약 197
CHAPTER 8 인덱스, 검색기, 그리고 데이터 준비 199
8.1 LangChain의 인덱스와 검색기 199
8.2 데이터 수집 205
8.3 텍스트 분할기 209
8.4 유사도 검색과 벡터 임베딩 219
8.5 실습 ❶ 고객 지원 Q&A 챗봇 225
8.6 실습 ❷ Whisper와 LangChain을 이용한 유튜브 비디오 요약기 232
8.7 실습 ❸ 지식 베이스를 위한 음성 비서 243
8.8 실습 ❹ 자기 비판 체인을 사용한 원치 않는 출력 방지 255
8.9 실습 ❺ 고객 서비스 챗봇에서 부적절한 출력 방지 260
8.10 요약 265
CHAPTER 9 고급 RAG 268
9.1 개념 증명에서 제품으로: RAG 시스템의 도전 과제 268
9.2 고급 RAG 기법과 LlamaIndex 269
9.3 RAG의 지표 및 평가 284
9.4 LangChain, LangSmith 및 LangChain Hub 299
9.5 요약 304
CHAPTER 10 에이전트 306
10.1 에이전트: 추론 엔진으로서의 대형 모델 306
10.2 AutoGPT와 BabyAGI 한 눈에 보기 312
10.3 LangChain의 에이전트 시뮬레이션 프로젝트 327
10.4 실습 ❶ 분석 보고서 작성 에이전트 구축 332
10.5 실습 ❷ LlamaIndex를 사용한 데이터베이스 쿼리 및 요약 340
10.6 실습 ❸ OpenAI 어시스턴트를 활용한 에이전트 구축 350
10.7 실습 ❹ LangChain OpenGPTs 354
10.8 실습 ❺ 멀티모달 금융 문서 분석기로 PDF 파일 분석하기 357
10.9 요약 371
CHAPTER 11 파인튜닝 372
11.1 파인튜닝에 대한 이해 372
11.2 LoRA 373
11.3 실습 ❶ LoRA를 활용한 SFT 376
11.4 실습 ❷ SFT 및 LoRA를 활용한 금융 감정 분석 389
11.5 실습 ❸ 의료 데이터를 활용한 Cohere LLM 파인튜닝 398
11.6 RLHF 408
11.7 실습 ❹ RLHF를 통한 LLM 성능 향상 411
11.8 요약 433
CHAPTER 12 배포 및 최적화 435
12.1 모델 증류와 교사-학생 모델 435
12.2 LLM 배포 최적화: 양자화, 가지치기, 추측적 디코딩 441
12.3 실습: GCP에서 CPU로 양자화된 LLM 배포하기 452
12.4 오픈소스 LLM을 클라우드 환경에 배포하기 461
12.5 요약 463
나가며 465
용어집 468
찾아보기 472
GPT 아키텍처는 다양한 목적에 맞게 여러 버전이 존재한다. 이후 장에서 프로덕션 환경에 더 적합한 다른 라이브러리들을 다룰 예정이지만, 여기서는 안드레이 카르파트히가 개발한 OpenAI의 GPT-2 모델의 간소화 버전, minGPT를 소개한다. minGPT는 저장소에서 직접 구현하고 실험해볼 수 있는 가벼운 버전의 GPT 모델이다. / minGPT는 GPT 구조를 간단히 설명하기 위해 개발된 교육용 도구로, 약 300줄의 코드로 축약되었으며 파이토치 라이브러리를 사용한다. 단순한 구조 덕분에 GPT 계열 모델의 내부 작동 방식을 깊이 이해하는 데 유용하며, 코드에 각 과정에 대한 명확한 설명이 포함되어 있어 학습에 도움이 된다. (45쪽)
ICL(문맥 학습, in-context learning)은 프롬프트에 예제나 시연을 포함시켜 모델이 학습하는 접근 방식이다. 퓨샷 프롬프팅(few-shot prompting)은 문맥 학습의 하위 집합으로, 모델에 관련된 예제나 시연의 작은 집합을 제공한다. 이 전략은 모델이 일반화하고 더 복잡한 작업에서 성능을 향상시키는 데 도움을 준다. 퓨샷 프롬프팅은 언어 모델이 소수의 샘플로부터 학습할 수 있게 한다. 이 적응력 덕분에 모델은 소수의 훈련 샘플만으로 다양한 작업을 처리할 수 있다. / 제로숏 프롬프팅에서는 모델이 완전히 새로운 작업에 대해 출력을 생성하지만, 퓨샷 프롬프팅은 문맥 내 예제를 활용해 성능을 향상시킨다. 이 기법에서 프롬프트는 종종 여러 샘플이나 입력과 그에 따른 답변으로 구성된다. 언어 모델은 이러한 예제들로부터 학습하고 유사한 질문에 답변하는 데 이를 적용한다. (92쪽)
RAG 파이프라인 설정의 마지막 단계는 프롬프트를 준비해 LLM이 내재된 지식에 의존하지 않고 검색된 정보를 활용하도록 유도하는 것이다. 이 단계에서 모델은 편집자의 역할을 하며, 주어진 정보를 검토하고 프롬프트에 적합하게 답변을 정리하거나 생성한다. 마치 변호사가 모든 답변을 암기하고 있지 않을 때 질문에 답하기 위해 문서, 책, 데이터베이스를 찾아보고 정보를 ‘소화’해 답변을 제시하는 것과 유사하다. 변호사처럼 LLM이 주어진 리소스를 참조하게 해 오류(환각)를 줄이고자 하는 경우가 많다. / 이 작업을 위해 system_prompt와 user_prompt 두 가지 인수를 조정해야 한다. system_prompt의 주요 변경 사항은 모델이 제공된 특정 청크 정보를 이용해 질문에 답하도록 지시하는 것이다. user_prompt는 모델이 〈START_OF_CONTEXT〉와 〈END_OF_CONTEXT〉 태그 사이에 제공된 데이터만을 참조해 답변하도록 신호를 보낸다. 여기서 .join() 메서드를 사용해 검색된 청크들을 하나의 긴 문자열로 연결하고, .format() 함수를 통해 prompt 변수의 첫 번째와 두 번째 { } 자리 표시자를 각각 결합된 콘텍스트와 사용자의 질문으로 대체한다. (115~116쪽)
LlamaIndex에서는 데이터 수집 후 문서를 처리 프레임워크 내에서 변환한다. 이 과정은 문서를 더 작고 상세한 단위인 Node 객체로 변환한다. 노드는 원본 문서에서 파생되며 주요 콘텐츠, 메타 데이터, 콘텍스트 세부 정보를 포함한다. LlamaIndex에는 문서 콘텐츠를 자동으로 구조화된 노드로 변환하는 NodeParser 클래스가 포함되어 있다. SimpleNodeParser를 사용해 문서 객체 리스트를 노드 객체로 변환하였다. (139쪽)
RAG에서 쿼리 생성(query construction)은 사용자의 질문을 다양한 데이터 소스에 호환되는 형식으로 변환하는 과정이다. 이는 비정형 데이터의 경우 질문을 벡터 형식으로 변환해 소스 문서의 벡터 표현과 비교하고, 가장 관련성 높은 청크를 식별할 수 있게 한다. 또한 SQL과 같은 언어로 쿼리를 작성해 데이터베이스와 같은 구조화된 데이터에도 적용될 수 있다. / 핵심 아이디어는 데이터의 내재된 구조를 활용해 사용자 쿼리에 답하는 것이다. 예를 들어 ‘movies about aliens in the year 1980(1980년 외계인에 관한 영화)’라는 쿼리는 ‘aliens(외계인)’과 같은 의미론적 요소(벡터 저장소를 통해 더 잘 검색된다)와 ‘year == 1980’과 같은 구조적 요소를 결합한다. 이 과정은 자연어 쿼리를 SQL(관계형 데이터베이스, structured query language)이나 사이퍼(그래프 데이터베이스, Cypher)와 같은 데이터베이스의 특정 쿼리 언어로 변환하는 것을 포함한다. (272~273쪽)
RLHF의 마지막 단계는 앞서 개발한 모델들을 통합하는 것이다. 이 단계에서는 보상 모델을 사용해 파인튜닝된 모델을 인간 피드백에 더 가깝게 정렬하도록 한다. 학습 루프 동안 사용자 정의 프롬프트가 파인튜닝된 OPT 모델에서 응답을 이끌어내며, 이 응답은 보상 모델을 통해 평가된다. 평가 점수는 사람이 생성할 가능성이 높은 응답과의 유사성을 기준으로 부여된다. (423쪽)
LLM으로 구현하는 실무형 AI 서비스 개발
LLM은 빠르게 진화하며 새로운 모델과 기법이 끊임없이 등장하고 있지만 지금 사용되는 개발 도구와 기술이 더 발전된 AI 모델을 다루는 기본 토대가 된다. 이 토대를 깊이 이해한 사람이 앞으로 나올 더 강력한 모델도 가장 효과적으로 활용할 수 있다. AI는 자연어 처리뿐 아니라 알고리즘 설명, 소프트웨어 개발, 학술 개념 해설, 생성형 이미지 제작 등 다양한 분야에서 활용되며, 산업 전반에 혁신을 불러오고 있다.
이 책은 LLM과 자연어 처리의 최신 동향을 소개하고, 모델의 작동 원리를 깊이 있게 설명하면서도 실무에 바로 쓸 수 있는 방법을 제시한다. 특히 RAG 파이프라인 구축 프로젝트를 통해 텍스트를 처리하고 맥락에 맞게 상호작용하는 최신 기술을 직접 다룬다. LLM을 특정 용도에 맞춰 정확성과 신뢰성을 높이는 필수 기술 스택인 프롬프트 엔지니어링, 파인튜닝, RAG를 중심으로, 실제 서비스에 적용 가능한 제품 제작 과정을 구체적으로 안내한다. 단순한 개념 설명을 넘어서 한계를 극복하는 전략과 실전 구현 방법까지 제시해 개발자가 직접 애플리케이션과 제품을 완성할 수 있도록 돕는다.
총 12장으로 구성된 이 책은 LLM의 핵심 개념부터 실무 적용까지 체계적으로 다룬다. 1장은 확장 법칙, 콘텍스트 크기, 창발적 능력 등 LLM이 강력한 이유를 살펴보고, 2장은 트랜스포머 아키텍처와 각 레이어 구성 요소를 중심으로 다양한 모델 설계를 설명한다. 3장은 환각, 레이턴시, 컴퓨팅 제약 같은 한계를 분석하고, 4장은 퓨샷 학습과 체인 프롬프트 등 프롬프트 기술을 코드 예제와 함께 실습한다. 5장은 RAG 기본 원칙과 벡터 데이터베이스 개념, 데이터 저장 및 검색 방법을 다루고, 6장은 LangChain과 LlamaIndex로 LLM 작업을 단순화하는 방법을 설명한다.
7장은 다양한 프롬프트 유형과 응답 제어, 추적 기법을, 8장은 인덱스 생성, 데이터 분할, 저장 등 검색 최적화를 다룬다. 9장은 고급 RAG 기법과 잠재적 문제 해결, 챗봇 성능 평가를 다루며 LangSmith 활용법까지 함께 소개한다. 이어 10장은 외부 환경과 상호작용하는 지능형 에이전트를, 11장은 LoRA와 QLoRA를 활용한 파인튜닝 전략을 다룬다. 마지막 12장에서는 모델 증류, 양자화, 가지치기 등으로 성능을 유지하면서 비용을 줄이는 최적화 방법을 제안한다. 각 장에는 RAG 기반 뉴스 요약기, 고객 지원 Q&A 챗봇, Whisper와 LangChain을 활용한 유튜브 영상 요약기, PDF 금융 문서 분석기, LoRA 기반 금융 감정 분석 등 실제 구현이 가능한 19개의 프로젝트가 포함되어 있으며, 개념을 실습과 함께 익히며 실무에 바로 적용할 수 있다.
시간이 지나 모델이나 구현 방식이 바뀌더라도 이 책에서 다루는 원칙과 접근 방법은 여전히 유효하다. 지금 필요한 실무 지식일 뿐 아니라 앞으로 등장할 더 발전된 모델을 다루는 데도 그대로 활용할 수 있을 것이다.
주요 내용LLM 구조 이해와 모델 선택 전략프롬프트 엔지니어링 및 응답 제어 기법벡터 검색 기반 RAG 파이프라인 구축랭체인, 라마인덱스 활용LoRA, QLoRA 기반 파인튜닝AutoGPT, BabyAGI 등 에이전트 기술랭스미스를 활용한 평가 및 디버깅양자화, 모델 경량화, 최적화, 배포 전략
이 책에서 직접 해보는 19가지 실전 LLM 프로젝트LLM을 활용한 번역퓨샷 학습을 통한 LLM 출력 제어LangChain을 사용한 LLM 기반 애플리케이션 구축뉴스 기사 요약기 구축출력 파서를 사용한 출력 관리뉴스 기사 요약기 개선텍스트 데이터를 활용한 지식 그래프 생성고객 지원 Q&A 챗봇Whisper와 LangChain을 이용한 유튜브 비디오 요약기자기 비판 체인을 사용한 원치 않는 출력 방지고객 서비스 챗봇에서 부적절한 출력 방지분석 보고서 작성 에이전트 구축LlamaIndex를 사용한 데이터베이스 쿼리 및 요약OpenAI 어시스턴트를 활용한 에이전트 구축LangChain OpenGPTs멀티모달 금융 문서 분석기로 PDF 파일 분석LoRA를 활용한 SFTSFT 및 LoRA를 활용한 금융 감정 분석의료 데이터를 활용한 Cohere LLM 파인튜닝RLHF를 통한 LLM 성능 향상
인물정보
저자(글) 루이-프랑수아 부샤르
2019년 시스템 엔지니어링 학위 과정 중 AI에 입문했다. 이모지 이미지 분류 대회 우승과 발표를 계기로 연구와 발표에 흥미를 느꼈으며, 2020년 AI 석사 과정 진학 후 스타트업에서 AI 팀 리더로 활동했다. 컴퓨터 비전 프로젝트를 주도하는 한편, 유튜브를 통해 AI 개념을 쉽게 전달하고자 했다. 2022년 밀라에서 의료 AI 박사 과정을 시작했으며, 2024년 실용적 문제 해결에 집중하기 위해 과정을 중단했다. 현재는 Towards AI 공동 창립자이자 교육자로서 AI의 실질적 활용에 주력하고 있다.
SF 영화와 소설에서 영감을 받아 AI에 관심을 갖게 되었으며, 2012년 AlexNet을 계기로 머신러닝의 발전을 본격적으로 추적하기 시작했다. 2018년에는 AI의 잠재력을 확신하고 커리어를 전환했다. 현재는 Towards AI의 CEO이자 공동 창립자로, 누구나 쉽게 AI를 이해하고 활용할 수 있도록 돕는 데 집중하고 있다. AI 관련 콘텐츠 제작과 강의 외에도 12만 명 이상의 구독자에게 전달되는 AI 뉴스레터를 매주 발행하고 있다. 임페리얼 칼리지 런던에서 물리학을 전공했으며, JP모건 체이스에서 투자 리서치 업무를 수행한 경력이 있다. 그는 AI가 사회와 경제에 미치는 변화와 이를 현실에 적용하는 기술 혁신에 깊은 관심을 가지고 있다.
외국계 IT 기업, 국내 금융사 AI 연구소, 글로벌 소비재 기업 등에서 다양한 AI 프로젝트를 수행했으며, 현재는 이커머스 기업의 핀테크 조직에서 수석 데이터 과학자 겸 머신러닝 알고리즘 엔지니어로 일하고 있다. 베이징 대학을 졸업한 후 캘리포니아 대학교 샌디에이고(UCSD)에서 국제경제학 석사 학위를 받았다. 또한, 세계 최대 규모의 데이터 과학 커뮤니티이자 경진대회 플랫폼인 캐글에서 그랜드 마스터로 활동 중이다. 저서로는 《금융 AI의 이해》(제이펍, 2024), 《AI 소사이어티》(미래의창, 2022/2022년 세종도서 교양부문 선정), 《퀀트 전략을 위한 인공지능 트레이딩》(한빛미디어, 2020)이 있으며, 역서로는 《그림으로 배우는 StatQuest 머신러닝 강의》, 《단단한 머신러닝》, 《데이터 과학자와 데이터 엔지니어를 위한 인터뷰 문답집》(이상 제이펍) 등이 있다.
이 상품의 총서
Klover리뷰 (0)
- - e교환권은 적립일로부터 180일 동안 사용 가능합니다.
- - 리워드는 5,000원 이상 eBook, 오디오북, 동영상에 한해 다운로드 완료 후 리뷰 작성 시 익일 제공됩니다. (2024년 9월 30일부터 적용)
- - 리워드는 한 상품에 최초 1회만 제공됩니다.
- - sam 이용권 구매 상품 / 선물받은 eBook은 리워드 대상에서 제외됩니다.
- 도서나 타인에 대해 근거 없이 비방을 하거나 타인의 명예를 훼손할 수 있는 리뷰
- 도서와 무관한 내용의 리뷰
- 인신공격이나 욕설, 비속어, 혐오 발언이 개재된 리뷰
- 의성어나 의태어 등 내용의 의미가 없는 리뷰
구매 후 리뷰 작성 시, e교환권 100원 적립
문장수집
- 구매 후 90일 이내에 문장 수집 등록 시 e교환권 100원을 적립해 드립니다.
- e교환권은 적립일로부터 180일 동안 사용 가능합니다.
- 리워드는 5,000원 이상 eBook에 한해 다운로드 완료 후 문장수집 등록 시 제공됩니다. (2024년 9월 30일부터 적용)
- 리워드는 한 상품에 최초 1회만 제공됩니다.
- sam 이용권 구매 상품 / 선물받은 eBook / 오디오북·동영상 상품/주문취소/환불 시 리워드 대상에서 제외됩니다.
구매 후 문장수집 작성 시, e교환권 100원 적립
신규가입 혜택 지급이 완료 되었습니다.
바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!