본문 바로가기

추천 검색어

실시간 인기 검색어

파이토치로 완성하는 실전 강화학습

REINFORCE, A2C, DQN, DDQN, PPO, A3C 이론과 구현을 한번에!
윤성진 지음
에이콘온

2025년 10월 30일 출간

국내도서 : 2025년 08월 28일 출간

(개의 리뷰)
( 0% 의 구매자)
eBook 상품 정보
파일 정보 PDF (34.90MB)   |  766 쪽
ISBN 9791194409441
지원기기 교보eBook App, PC e서재, 리더기, 웹뷰어
교보eBook App 듣기(TTS) 가능
TTS 란?
텍스트를 음성으로 읽어주는 기술입니다.
  • 전자책의 편집 상태에 따라 본문의 흐름과 다르게 텍스트를​ 읽을 수 있습니다.
  • 이미지 형태로 제작된 전자책 (예 : ZIP 파일)은 TTS 기능을 지원하지 않습니다.

PDF 필기가능 (Android, iOS)
소득공제
소장
정가 : 36,800원

쿠폰적용가 33,120

10% 할인 | 5%P 적립

이 상품은 배송되지 않는 디지털 상품이며,
교보eBook앱이나 웹뷰어에서 바로 이용가능합니다.

카드&결제 혜택

  • 5만원 이상 구매 시 추가 2,000P
  • 3만원 이상 구매 시, 등급별 2~4% 추가 최대 416P
  • 리뷰 작성 시, e교환권 추가 최대 200원

작품소개

이 상품이 속한 분야

강화학습의 기초부터 고급 주제까지 단계적이고 체계적으로 다루는 책이다. 정책 기반 알고리즘(REINFORCE, PPO)과 액터–크리틱(A2C, A3C), 가치 기반(DQN, DDQN) 기법을 이론과 실습의 균형을 맞춰 설명하며, 개념을 시각화하고 수식을 단계별로 풀어 설명하는 한편 배경 지식을 이해하는 데 도움이 되는 팁을 제공한다. 독자는 알고리즘의 핵심 코드를 직접 구현해 보고 바로 정답을 확인해 볼 수 있고, 강화학습 프레임워크를 설계해 이를 기반으로 다양한 알고리즘을 적용해 보면서 전체 프로세스를 체계적으로 익히게 된다. 또한 각 구성 요소를 깊이 이해한 뒤에는 스스로 알고리즘을 개선·확장할 수 있도록 안내하며, 분산 학습과 같은 최신 기법까지 포함해 실제 실무 환경에 곧바로 적용할 수 있는 실전 지식을 제공한다.
1부. 강화학습 개요
1장. 강화학습 개요
1.1 강화학습이란?
1.2 강화학습의 응용
1.3 강화학습의 도전 과제

2장. 강화학습 알고리즘
2.1 강화학습의 정의
2.2 강화학습 알고리즘의 종류
2.3 강화학습의 학습 단계
2.4 알고리즘 선택 기준

2부. 강화학습 프레임워크 소개
3장. 강화학습 프레임워크
3.1 강화학습 논리 구성
3.2 강화학습 프레임워크 클래스 구성
3.2.1 공통 클래스와 커스터마이징 클래스

4장. 강화학습 프레임워크 개발 환경
4.1 개발 환경 구성
4.2 OpenGym 소개
4.3 강화학습 프레임워크의 실행

3부. 강화학습 맛보기 정책 기반 방법
5장. 러너
5.1 러너의 구성
5.2 러너의 작동 방식
5.3 Runner 클래스 정의
5.4 Runner 클래스 구현코드

6장. 환경 루프
6.1 환경 루프의 구성
6.2 환경 루프의 작동 방식
6.3 EnvironmentLoop 클래스 정의
6.4 EnvironmentLoop 클래스 구현 코드

7장. 폴리시 그레이디언트
7.1 정책 기반 방법의 유도
7.2 분산 최소화 방안

8장. REINFORCE 알고리즘 구현
8.1 REINFORCE 알고리즘 구성
8.2 REINFORCE 클래스
8.3 REINFORCENetwork 클래스
8.4 REINFORCELearner 클래스
8.5 몬테카를로 리턴
8.6 CartPole-v1 환경
8.7 LunarLanderContinuous-v2 학습

4부. 강화학습 발담그기 정책 기반 방법 성능 개선
9장. 에이전트
9.1 에이전트 구성
9.2 에이전트
9.3 액터
9.4 학습자
9.5 네트워크

10장. 정책
10.1 정책의 종류
10.2 정책의 구성
10.3 Policy 클래스
10.4 StochasticPolicy 클래스
10.5 CategoricalPolicy 클래스
10.6 GaussianPolicy 클래스
10.7 MLP 클래스
10.8 CategoricalPolicyMLP 클래스
10.9 GaussianPolicyMLP 클래스

11장. REINFORCE 베이스라인 적용
11.1 새로운 알고리즘 추가
11.2 REINFORCE 베이스라인 버전 구성
11.3 REINFORCEB 클래스
11.4 REINFORCEBNetwork 클래스
11.5 REINFORCEBLearner 클래스
11.6 CartPole-v1 학습
11.7 LunarLanderContinuous-v2 학습
11.8 새로운 환경 학습

5부. 강화학습 즐기기 액터-크리틱 방법
12장. 액터-크리틱 방법
12.1 가치 함수
12.2 액터-크리틱 방법
12.3 A2C

13장. A2C 알고리즘 구현
13.1 A2C 알고리즘 구성
13.2 A2C 클래스
13.3 A2CNetwork 클래스
13.4 A2CLearner 클래스
13.5 n-스텝 리턴
13.6 GAE
13.7 CartPole-v1 학습
13.8 LunarLanderContinuous-v2 학습

14장. 가치 함수
14.1 가치 함수
14.2 가치 함수의 구성
14.3 ValueFunction 클래스
14.4 StateValueFunction 클래스
14.5 ActionValueFunction 클래스
14.6 ValueFunctionMLP 클래스
14.7 QFunctionMLP 클래스
14.8 QFunctionMLPDQN 클래스

15장. 데이터셋
15.1 데이터셋 구성 방식
15.2 데이터셋의 구성
15.3 버퍼와 버퍼 스키마
15.4 롤아웃 버퍼
15.5 리플레이 버퍼

16장. 환경
16.1 환경의 작동 방식
16.2 환경 구성
16.3 Environment 클래스
16.4 EnvironmentSpec 클래스
16.5 OpenGym 클래스

6부. 강화학습 완성하기 가치 기반 방법
17장. 가치 기반 방법
17.1 가치 기반 방법
17.2 DQN
17.3 더블 DQN(Double DQN)

18장. 가치 기반 방법
18.1 DQN 알고리즘 구성
18.2 DQN 클래스
18.3 DQNNetwork 클래스
18.4 유틸리티 함수
18.5 DQNLearner 클래스
18.6 CartPole-v1 학습

19장. 더블 DQN 알고리즘 구현
19.1 더블 DQN 알고리즘 구성
19.2 DDQN 클래스
19.3 DDQNNetwork 클래스
19.4 DDQNLearner 클래스
19.5 CartPole-v1 학습

7부. 강화학습 성능 개선 분산 강화학습
20장. PPO 알고리즘
20.1 PPO 알고리즘
21장. PPO 알고리즘 구현
21.1 PPO 알고리즘 구성
21.2 PPO 클래스
21.3 PPONetwork 클래스
21.4 PPOLearner 클래스
21.5 CartPole-v1 학습
21.6 LunarLanderContinuous-v2 학습
21.7 AntBulletEnv-v0 학습

22장. 다중 환경 러너
22.1 A2C와 A3C
22.2 다중 환경 러너의 구성
22.3 MultiEnvRunner 클래스
22.4 MultiEnvAsyncRunner 클래스
22.5 다중 환경 성능 확인
22.6 Ray 소개

◆ 단계적이고 체계적으로 다루는 강화학습의 기초부터 고급 주제까지
◆ 정책 기반(REINFORCE, PPO), 액터-크리틱(A2C, A3C), 가치 기반(DQN, DDQN) 알고리즘의 이론과 실습을 균형 있게 제공
◆ 개념을 시각화하고 수식을 단계별로 풀어 설명하며 배경 지식을 이해하도록 팁을 제공
◆ 알고리즘의 핵심 코드를 직접 구현해 보고 정답을 즉시 확인해 보는 방식의 실습 구성
◆ 강화학습 프레임워크를 설계하고 이를 기반으로 강화학습 알고리즘을 구현
◆ 강화학습의 주요 구성 요소와 전체 프로세스를 체계적으로 이해할 수 있으며 독자가 알고리즘을 스스로 개선하고 확장할 수 있도록 지원
◆ 분산 학습과 같은 최신 기법을 포함해 실무 환경에 바로 적용할 수 있는 실전 지식 제공

『Do it! 딥러닝 교과서』 한 상 차림에 이은 강화학습 구첩반상!
저자의 이전 저서인 『Do it! 딥러닝 교과서』에서도 느낀 바 있지만, 이번 책 역시 세심함과 꼼꼼함이 책 전체에 깊이 스며 있습니다. 그림, 표, 예제 하나하나가 허투루 등장하는 법이 없고, 모든 요소가 독자의 이해를 돕기 위해 정교하게 설계돼 있습니다.
이 책은 초보자에게는 친절한 진입 경로를, 전문가에게는 구조적 통찰과 확장 가능성을 제공하는 균형 잡힌 구조를 갖추고 있습니다. 특히 눈에 띄는 강점은 PyTorch 기반으로 강화학습 프레임워크를 개발하고 실험해 보는 프로젝트 기반의 실습 중심 구성입니다. 강화학습 이론을 현실에 적용하는 힘을 길러 주기에 실무형 실습서로도 손색이 없습니다.
무엇보다도 이 책은 강화학습을 ‘즐기는’ 과정을 안내합니다. 단순히 기술을 전달하는 데 그치지 않고, 강화학습이 어떤 문제를 어떻게 창의적으로 풀어낼 수 있는지 그 의미까지 체감하게 해 줍니다. 아타리 게임, 알파고, 자율주행, ChatGPT의 RLHF 등 풍부 한 실제 사례들은 독자의 학습 동기를 북돋우기에 충분하며, 마지막 페이지를 덮을 즈음엔 마치 풍성한 구첩반상을 맛보고 난 듯한 만족감을 느끼게 되리라 확신합니다.
신찬수, 한국외국어대학교 컴퓨터공학부 교수

ChatGPT 시대에 더욱 중요해진 강화학습!
강화학습이라고 하면 많은 사람들은 2016년 이세돌 9단과 알파고 대전을 떠올릴 것이다. 바둑 게임에 이기면 긍정의 보상을, 지면 부정의 보상을 주는 강화학습 방식을 통해 마침내 바둑 세계 챔피언을 이겼다는 전설이 돼 버린 이야기.
2022년 말 ChatGPT 서비스가 출시되면서 거대 언어 모델(LLM)에 대한 관심이 전세계적으로 높아졌다. ChatGPT 서비스의 기반이었던 GPT-3 모델은 사전 학습, 미세 조정 그리고 마지막 단계로 사람 선호도 학습의 3단계 학습을 거쳤는데, 이중 마지막 단계인 사람 선호도 학습은 선호도가 높은 모델에 긍정의 보상을 주도록 PPO라는 강화 학습 알고리즘을 사용했다.
2024년 말에는 LLM 모델의 지능을 높이기 위해 생각을 먼저 생성하고 이후에 답변을 생성하는 방식의 훈련 방법이 제안됐다. 중국 딥시크-R1 모델은 스스로 개발한 GRPO라는 강화학습 알고리즘을 사용해 효율적으로 생각 모델을 학습시켜 전 세계의 주목을 받았다.
2025년에는 LLM 모델이 서비스를 호출해 상호작용할 수 있는 에이전트 방식 LLM이 주목받고 있다. LLM 모델을 넘어서 여러 에이전트와 협업해 더 나은 결과를 만드는 구조의 정확도 개선을 위해 마찬가지로 강화학습 방법이 가장 많이 사용되고 있다.
강화학습은 신경망에 대한 지도 학습, 비지도 학습 알고리즘과는 발전 궤적이 조금 달라서 신경망 모델을 잘 아는 사람이라 해도 개념과 용어를 이해하는 데 어려움이 있다. 저자는 다양한 강화학습 알고리즘과 메타 학습 알고리즘을 연구해왔으며 수학적 원리와 정확성을 중시하는 관점을 갖추고 있어, 실용적 코드를 넘어 원리적 이해에 도움을 얻을 수 있을 것이다. ChatGPT 시대의 가장 지능적 학습을 위한 강화학습의 원리를 이해하고 실제 모델 개발에 활용하는 데 이 책이 중요한 디딤돌 역할을 할 것이라 믿는다.
윤경구, 주식회사 파수 Enterprise LLM 솔루션 개발 총괄, 전무

시행착오라는 강을 건널 때 밟고 지나야 할 징검다리 같은 책!
저자를 처음 만난 것은 ‘AI를 통해 세상을 더 나은 곳으로 만들겠다’라는 뜻을 품은 사람들의 모임으로, 스승과 제자의 연으로 시작해 지금은 함께 공부하는 벗이자 서로에게 조언을 주는 존재가 됐다. 소프트웨어에 대한 깊은 이해와 오랜 연구, 교육과 제품 기획 현장을 두루 경험해 온 저자는 늘 단단한 바탕 위에 실전적인 앎이 놓여야 한다는 태도로 지식을 이해하고 전해왔다.
이 책 역시 그러한 저자의 면모가 고스란히 드러난다. 강화학습이라는 다소 복잡하고 난해한 분야를 환경 루프, 정책, 러너 구조 등 핵심 구성요소를 중심으로 체계적이고 명료하게 설명한다. 단순한 코드 나열에 그치지 않고, 각 개념이 왜 필요한지, 어떤 방식으로 전체 흐름과 연결되는지를 자연스럽게 이해할 수 있도록 돕는다. 특히 이 책의 구성은 독자들이 꼭 필요한 내용을 단계별로 집중해 학습할 수 있도록 설계돼 있어 실전 코드와 개념을 동시에 정리하고자 하는 학습자들에게 큰 힘이 된다.
강화학습은 이미 익숙하지만, 여전히 많은 이들에게 어렵고 멀게 느껴지는 분야다. “강화학습은 제어에만 적합하지 않나?”, “현실 환경은 너무 복잡해서 적용하기 어렵지 않나?”와 같은 고민을 한 분들에게 이 책은 막연한 두려움을 줄이고 실제 적용 가능성을 넓혀주는 실용적인 안내서가 돼줄 것이다.
최근 강화학습은 LLM 파인튜닝을 위한 RLHF, 자율주행, 로봇 제어, 나아가 모델 아키텍처 탐색까지 그 활용 영역을 빠르게 확장하고 있다. 「AlphaGo Moment for Model Architecture Discovery」와 같은 최신 논문은 강화학습이 단순한 행동 선택을 넘어 AI가 자신을 진화시키는 핵심 방법론이 될 수 있음을 보여준다.
매일 ‘창의력’, ‘에이전트’, ‘MCP’ 같은 수많은 키워드가 쏟아지는 요즘, 이 책은 강화 학습이라는 본질을 명확하게 짚어주는 실전서다. 앞으로도 후속작이 꾸준히 이어지기를 바라며, 나는 변함없이 저자의 책을 추천하고 응원하기를 기대한다. 저자는 내가 오랜 시간 지켜본, 흔들리지 않는 태도로 지식을 쌓아가는 사람이고, 나는 그를 꾸준히 지지하는 독자이자 ‘빅 팬’이다.
시행착오라는 강을 건너는 여정 속에서 반드시 밟고 지나야 할 징검다리 같은 책. 이 책이 그 역할을 해줄 것이라 믿고 자신 있게 추천한다.
이주희, 보고넷 CTO/이사

인물정보

저자(글) 윤성진

KAIST 전산학과에서 컴퓨터 그래픽스를 전공했으며 LG전자 전자기술원, 티맥스소프트, 액센츄어 등에서 소프트웨어 연구 개발, 미들웨어 및 모듈형 로봇 플랫폼 제품 기획 업무를 수행했다. 인공지능 전문가로서 한국외국어대학교에서 딥러닝, 자료 구조, 데이터 마이닝을 가르치고, ㈜인공지능연구원에서 연구개발을 총괄했다.
현재는 SoftAI의 연구소장으로서 AI 솔루션 연구 개발을 하고 있으며 서울과학종합 대학원대학교 AI첨단대학원 겸직 교수를 역임하고 있다. 대표 저서에는 『Do it! 딥러닝 교과서』(이지스퍼블리싱, 2021), 『파이썬으로 구현하는 로보어드바이저』(에이콘, 2024), 『모두를 위한 컨벡스 최적화』(오픈소스, 2018)가 있다.

작가의 말

거대 언어 모델의 눈부신 성공은 AGI(Artificial General Intelligence)를 향한 인공지능 기술의 도약을 알리고 있다. 머지않아 우리는 지능형 에이전트와 함께 일상을 공유하게 될 것이다. 이 에이전트들은 우리가 번거롭게 느끼는 일상 업무를 대신 처리하고, 우리의 감정 상태에 맞춰 반응하며, 복잡한 상황 속에서 합리적인 판단을 도울 조언을 제공하고, 때로는 새로운 기회를 제안하기도 할 것이다.
지능형 에이전트에게 중요한 능력 중 하나는 장기적이고 인과 관계가 복잡한 의사결정 문제를 푸는 능력이다. 강화학습은 의사결정 과정에서 현재의 행동이 미래에 어떠한 영향을 미칠지를 고려하며 자율 학습을 통해 지능화를 가속한다. 로봇 팔은 수차례의 시행착오를 거쳐 물체를 잡고 조작하는 법을 터득하고, 알파제로(AlphaZero)는 인간의 기보 없이도 자기 대국(self-play)을 반복하며 바둑 실력을 획득한다. 최선의 행동을 반복하는 ‘활용’과, 새로운 행동을 시도해 더 나은 전략을 발견하는 ‘탐험’을 스스로 조절하며, 게임에서 승리하거나 로봇이 임무를 완수해야 하는 것과 같은 장기적인 목표를 달성하기 위해 계획을 세우고 수정하기도 한다. 이런 강화학습의 인과성을 고려한 자율 학습 능력은 지능형 에이전트가 가져야 할 주요 역량이다.
가끔 “강화학습 공부는 어떻게 시작하면 좋을까요?”라는 질문을 받곤 하는데, 그때마다 적절한 학습 자료를 추천하기가 쉽지 않았다. 지나치게 이론을 중심으로 써진 고전 서적은 입문자가 중도에 포기하기 쉽고, 실무 적용을 위해 꼭 필요한 심층 강화학습 내용은 깊이 다루지 않고 있다. 반면에 국내 입문서는 드물고 설명이 간소하다. 언젠가 강화학습 책을 쓰게 된다면 심층 강화학습을 중심으로 이론은 명쾌하게, 실습은 이론을 검증하는 방식으로 구성하면 좋겠다고 생각했다. 그렇게 몇 년의 시간이 흐른 뒤에야 이 책을 쓸 수 있게 됐다.
이 책은 강화학습의 이론과 실습을 균형 있게 엮은 ‘이론서’이자 ‘실습서’이다. 단순히 알고리즘을 나열하지 않고 각 기법이 발전하고 확장된 과정을 따라 차례대로 구성했다. 또한, 사전에 설계된 프레임워크를 기반으로 강화학습 알고리즘을 구현하는 방식을 취하고 있어서 이론적 개념을 명확히 이해하면서도 즉시 실무에 적용해 볼 수 있도록 설계했다. 본서를 통해 강화학습의 원리와 실제를 폭넓게 익혀 지능형 에이전트 시대에 한 발 더 앞서 나가길 바란다.

이 상품의 총서

Klover리뷰 (0)

Klover리뷰 안내
Klover(Kyobo-lover)는 교보를 애용해 주시는 고객님들이 남겨주신 평점과 감상을 바탕으로, 다양한 정보를 전달하는 교보문고의 리뷰 서비스입니다.
1. 리워드 안내
구매 후 90일 이내에 평점 작성 시 e교환권 100원을 적립해 드립니다.
  • - e교환권은 적립일로부터 180일 동안 사용 가능합니다.
  • - 리워드는 5,000원 이상 eBook, 오디오북, 동영상에 한해 다운로드 완료 후 리뷰 작성 시 익일 제공됩니다. (2024년 9월 30일부터 적용)
  • - 리워드는 한 상품에 최초 1회만 제공됩니다.
  • - sam 이용권 구매 상품 / 선물받은 eBook은 리워드 대상에서 제외됩니다.
2. 운영 원칙 안내
Klover리뷰를 통한 리뷰를 작성해 주셔서 감사합니다. 자유로운 의사 표현의 공간인 만큼 타인에 대한 배려를 부탁합니다. 일부 타인의 권리를 침해하거나 불편을 끼치는 것을 방지하기 위해 아래에 해당하는 Klover 리뷰는 별도의 통보 없이 삭제될 수 있습니다.
  • 도서나 타인에 대해 근거 없이 비방을 하거나 타인의 명예를 훼손할 수 있는 리뷰
  • 도서와 무관한 내용의 리뷰
  • 인신공격이나 욕설, 비속어, 혐오 발언이 개재된 리뷰
  • 의성어나 의태어 등 내용의 의미가 없는 리뷰

구매 후 리뷰 작성 시, e교환권 100원 적립

문장수집

문장수집 안내
문장수집은 고객님들이 직접 선정한 책의 좋은 문장을 보여 주는 교보문고의 새로운 서비스 입니다. 교보eBook 앱에서 도서 열람 후 문장 하이라이트 하시면 직접 타이핑 하실 필요 없이 보다 편하게 남길 수 있습니다. 마음을 두드린 문장들을 기록하고 좋은 글귀들은 ‘좋아요’ 하여 모아보세요. 도서 문장과 무관한 내용 등록 시 별도 통보없이 삭제될 수 있습니다.
리워드 안내
  • 구매 후 90일 이내에 문장 수집 등록 시 e교환권 100원을 적립해 드립니다.
  • e교환권은 적립일로부터 180일 동안 사용 가능합니다.
  • 리워드는 5,000원 이상 eBook에 한해 다운로드 완료 후 문장수집 등록 시 제공됩니다. (2024년 9월 30일부터 적용)
  • 리워드는 한 상품에 최초 1회만 제공됩니다.
  • sam 이용권 구매 상품 / 선물받은 eBook / 오디오북·동영상 상품/주문취소/환불 시 리워드 대상에서 제외됩니다.

구매 후 문장수집 작성 시, e교환권 100원 적립

    교보eBook 첫 방문을 환영 합니다!

    신규가입 혜택 지급이 완료 되었습니다.

    바로 사용 가능한 교보e캐시 1,000원 (유효기간 7일)
    지금 바로 교보eBook의 다양한 콘텐츠를 이용해 보세요!

    교보e캐시 1,000원
    TOP
    신간 알림 안내
    파이토치로 완성하는 실전 강화학습 웹툰 신간 알림이 신청되었습니다.
    신간 알림 안내
    파이토치로 완성하는 실전 강화학습 웹툰 신간 알림이 취소되었습니다.
    리뷰작성
    • 구매 후 90일 이내 작성 시, e교환권 100원 (최초1회)
    • 리워드 제외 상품 : 마이 > 라이브러리 > Klover리뷰 > 리워드 안내 참고
    • 콘텐츠 다운로드 또는 바로보기 완료 후 리뷰 작성 시 익일 제공
    감성 태그

    가장 와 닿는 하나의 키워드를 선택해주세요.

    사진 첨부(선택) 0 / 5

    총 5MB 이하로 jpg,jpeg,png 파일만 업로드 가능합니다.

    신고/차단

    신고 사유를 선택해주세요.
    신고 내용은 이용약관 및 정책에 의해 처리됩니다.

    허위 신고일 경우, 신고자의 서비스 활동이 제한될 수
    있으니 유의하시어 신중하게 신고해주세요.


    이 글을 작성한 작성자의 모든 글은 블라인드 처리 됩니다.

    문장수집 작성

    구매 후 90일 이내 작성 시, e교환권 100원 적립

    eBook 문장수집은 웹에서 직접 타이핑 가능하나, 모바일 앱에서 도서를 열람하여 문장을 드래그하시면 직접 타이핑 하실 필요 없이 보다 편하게 남길 수 있습니다.

    P.
    파이토치로 완성하는 실전 강화학습
    REINFORCE, A2C, DQN, DDQN, PPO, A3C 이론과 구현을 한번에!
    저자 모두보기
    저자(글)
    낭독자 모두보기
    sam 이용권 선택
    님이 보유하신 이용권입니다.
    차감하실 sam이용권을 선택하세요.
    sam 이용권 선택
    님이 보유하신 이용권입니다.
    차감하실 sam이용권을 선택하세요.
    sam 이용권 선택
    님이 보유하신 프리미엄 이용권입니다.
    선물하실 sam이용권을 선택하세요.
    결제완료
    e캐시 원 결제 계속 하시겠습니까?
    교보 e캐시 간편 결제
    sam 열람권 선물하기
    • 보유 권수 / 선물할 권수
      0권 / 1
    • 받는사람 이름
      받는사람 휴대전화
    • 구매한 이용권의 대한 잔여권수를 선물할 수 있습니다.
    • 열람권은 1인당 1권씩 선물 가능합니다.
    • 선물한 열람권이 ‘미등록’ 상태일 경우에만 ‘열람권 선물내역’화면에서 선물취소 가능합니다.
    • 선물한 열람권의 등록유효기간은 14일 입니다.
      (상대방이 기한내에 등록하지 않을 경우 소멸됩니다.)
    • 무제한 이용권일 경우 열람권 선물이 불가합니다.
    이 상품의 총서 전체보기
    네이버 책을 통해서 교보eBook 첫 구매 시
    교보e캐시 지급해 드립니다.
    교보e캐시 1,000원
    • 첫 구매 후 3일 이내 다운로드 시 익일 자동 지급
    • 한 ID당 최초 1회 지급 / sam 이용권 제외
    • 네이버 책을 통해 교보eBook 구매 이력이 없는 회원 대상
    • 교보e캐시 1,000원 지급 (유효기간 지급일로부터 7일)
    구글바이액션을 통해서 교보eBook
    첫 구매 시 교보e캐시 지급해 드립니다.
    교보e캐시 1,000원
    • 첫 구매 후 3일 이내 다운로드 시 익일 자동 지급
    • 한 ID당 최초 1회 지급 / sam 이용권 제외
    • 구글바이액션을 통해 교보eBook 구매 이력이 없는 회원 대상
    • 교보e캐시 1,000원 지급 (유효기간 지급일로부터 7일)