본문 바로가기

추천 검색어

실시간 인기 검색어

패키지 없이 R로 구현하는 심층 강화학습

손으로 풀어보는 Q-Learning부터 R로 구현하는 심층 강화학습까지
이경택 , 박이삭 , 최영제 저자(글)
비제이퍼블릭 · 2021년 06월 29일
9.2
10점 중 9.2점
(3개의 리뷰)
추천해요 (67%의 구매자)
  • 패키지 없이 R로 구현하는 심층 강화학습 대표 이미지
    패키지 없이 R로 구현하는 심층 강화학습 대표 이미지
  • A4
    사이즈 비교
    210x297
    패키지 없이 R로 구현하는 심층 강화학습 사이즈 비교 189x246
    단위 : mm
01 / 02
무료배송 이벤트 소득공제
10% 23,400 26,000
적립/혜택
1,300P

기본적립

5% 적립 1,300P

추가적립

  • 5만원 이상 구매 시 추가 2,000P
  • 3만원 이상 구매 시, 등급별 2~4% 추가 최대 1,300P
  • 리뷰 작성 시, e교환권 추가 최대 300원
배송안내
무료배송
배송비 안내
국내도서/외국도서
도서 포함 15,000원 이상 구매 시 무료배송
도서+사은품 또는 도서+사은품+교보Only(교보굿즈)

15,000원 미만 시 2,500원 배송비 부과

교보Only(교보배송)
각각 구매하거나 함께 20,000원 이상 구매 시 무료배송

20,000원 미만 시 2,500원 배송비 부과

해외주문 서양도서/해외주문 일본도서(교보배송)
각각 구매하거나 함께 15,000원 이상 구매 시 무료배송

15,000원 미만 시 2,500원 배송비 부과

업체배송 상품(전집, GIFT, 음반/DVD 등)
해당 상품 상세페이지 "배송비" 참고 (업체 별/판매자 별 무료배송 기준 다름)
바로드림 오늘배송
업체에서 별도 배송하여 1Box당 배송비 2,500원 부과

1Box 기준 : 도서 10권

그 외 무료배송 기준
바로드림, eBook 상품을 주문한 경우, 플래티넘/골드/실버회원 무료배송쿠폰 이용하여 주문한 경우, 무료배송 등록 상품을 주문한 경우
당일배송 오늘(3/27,목) 도착
기본배송지 기준
배송일자 기준 안내
로그인 : 회원정보에 등록된 기본배송지
로그아웃 : '서울시 종로구 종로1' 주소 기준
로그인정확한 배송 안내를 받아보세요!

이달의 꽃과 함께 책을 받아보세요!

1권 구매 시 결제 단계에서 적용 가능합니다.

알림 신청하시면 원하시는 정보를
받아 보실 수 있습니다.

키워드 Pick

키워드 Pick 안내

관심 키워드를 주제로 다른 연관 도서를 다양하게 찾아 볼 수 있는 서비스로, 클릭 시 관심 키워드를 주제로 한 다양한 책으로 이동할 수 있습니다.
키워드는 최근 많이 찾는 순으로 정렬됩니다.

패키지 없이 R로 구현하는 심층 강화학습 상세 이미지
머신러닝과 강화학습의 기본 개념부터 심층 강화학습의 알고리즘과 발전방향까지!
본 서는 강화학습의 기본 요소와 작동 원리에 대해 상세히 다루는데, 딥러닝 프레임 워크를 사용하는 것이 아닌, R base code로 강화학습을 구현하여 강화학습 작동원리를 이해한다.
Atari 게임 환경 외에 실생활에서 강화학습을 적용하고자 하는 독자들을 위하여 환경을 직접 설계함과 동시에 패키지 없이 low level부터 모든 것을 구현하기 때문에, 이 책을 통해 강화학습의 이론적 내용을 이해하고 알고리즘 및 환경을 구현하는 능력을 함양하여, 풀고자 하는 다양한 상황에서 쉽게 활용할 수 있을 것이다.
이 책이 필요한 독자
- R을 활용하여 데이터를 읽고 원하는 머신러닝 모델을 적합할 수 있는 사람
- 머신러닝과 딥러닝에 대해 기초 모델에 대한 지식(CNN, RNN 등)이 있는 사람
- 강화학습에 대해 제대로 이해하고 R로 구현해보고 싶은 사람
- 실생활에 강화학습을 적용하고 싶은 데이터 분석가

작가정보

저자(글) 이경택

성균관대학교에서 통계학을 전공하고, 현재 연세대학교 산업공학과에서 박사과정을 밟고 있다. 빅데이터 연합 학회 투빅스를 창설했으며, 데이터 분석 및 인공지능 관련 대회에서 다수 수상하였고, 데이터 분석과 인공지능 전 분야에 관심을 가지고 끊임없이 연구 중이다. 딥러닝과 강화학습에 관심이 많으며, 블로그 운영 및 다양한 강의 활동을 진행하고 있다.

저자(글) 박이삭

인하대학교에서 통계학을 전공하였다. 그 후 빅데이터 연합 학회 투빅스를 통해 저자들을 알게 되었고, R, Python 코딩과 인공지능에 관심을 갖게 되었다. 현재는 라인게임즈 데이터 사이언스팀에 재직 중이며, 게임 데이터 분석과 분석 파이프라인 구축을 진행하고 있다. 강화학습을 통한 게임 밸런스에 대해 관심이 많다.

저자(글) 최영제

국민대학교에서 빅데이터 경영통계를 전공하고, 현재 연세대학교 산업공학과에서 대학원 과정을 밟고 있다. 머신러닝, 딥러닝 전 분야에 관심을 갖고 있으며 현재는 automated feature extraction (AutoFE) 분야를 연구 중이다. 대학원에서는 주로 강화학습, 머신러닝 성능 향상을 위한 비정형 데이터 특징 추출 등의 프로젝트를 수행하고 있다. 빅데이터 연합 학회 투빅스를 통해 저자들을 알게 되었으며, 프로젝트 경험 등을 바탕으로 책을 집필하게 되었다.

목차

  • Chapter 0. R 언어 소개
    0.1 R 설치
    〉 0.1.1 Windows 버전 R 다운로드 〈
    〉 0.1.2 mac OS 버전 R 다운로드 〈
    0.2 R 전용 통합 개발 환경(IDE) 설치


    Chapter 1. 머신러닝이란 Machine Learning
    1.1 머신러닝이 필요한 이유
    〉 1.1.1 머신러닝 학습시키기 〈
    〉 1.1.2 손실 함수 〈
    〉 1.1.3 머신러닝의 구분 〈
    1.2 딥러닝(Deep Learning)
    〉 1.2.1 딥러닝의 사례 〈


    Chapter 2. 딥러닝 Deep Learning
    2.1 퍼셉트론(Perceptron)
    2.2 Multi Layer Perceptron(MLP)
    〉 2.2.1 Feed Forward 〈
    〉 2.2.2 Back Propagation 〈
    〉 2.2.3 활성 함수(Activation Function) 〈
    〉 2.2.4 Gradient Descent Method 〈
    〉 2.2.5 Iteration & Batch Size 〈
    〉 2.2.6 딥러닝의 단점 및 극복 〈
    2.3 딥러닝(Deep Learning)
    〉 2.3.1 Universal Approximation Theorem 〈
    〉 2.3.2 Convolutional Neural Network(CNN) 〈
    〉 2.3.3 다양한 CNN 구조 〈
    〉 2.3.4 Recurrent Neural Network(RNN) 〈
    〉 2.3.5 다양한 RNN 구조 〈
    〉 2.3.6 GAN 학습 과정 - Feed Forward 〈
    〉 2.3.7 GAN 학습 과정 - Back Propagation 〈
    2.4 R로 구현하는 신경망
    〉 2.4.1 Feed Forward 〈
    〉 2.4.2 Back Propagation 〈


    Chapter 3. 강화학습 Reinforcement Learning
    3.1 강화학습 정의 요소
    〉 3.1.1 상태(State) 〈
    〉 3.1.2 행동(Action) 〈
    〉 3.1.3 정책(Policy) 〈
    〉 3.1.4 보상(Reward) 〈
    〉 3.1.5 감가율과 감가 누적 보상(Discount factor and Return) 〈
    〉 3.1.6 상태 가치 함수(State Value Function) 〈
    〉 3.1.7 행동 가치 함수(Action Value Function) 〈
    〉 3.1.8 벨만 방정식(Bellman equation) 〈
    〉 3.1.9 몬테 카를로 학습(Monte-Carlo Learning, MC) 〈
    〉 3.1.10 시간 차 학습(Temporal Difference Learning, TD) 〈
    〉 3.1.11 정책 갱신 〈
    3.2 손으로 풀어보는 Q-Learning


    Chapter 4. 심층 강화학습 Deep Reinforcement Learning
    4.1 Deep Q-Learning with Experience Replay(DQN)
    [예제 4-1] DQN으로 최적 경로 찾기
    4.2 Prioritized Experience Replay (PerDQN)
    [예제 4-2] PerDQN으로 최적 경로 찾기
    4.3 Dueling DQN
    4.4 Policy Gradient(PG)
    〉 4.4.1 REINFORCE Algorithm 〈
    〉 4.4.2 Actor-Critic 〈
    4.5 Advantage Actor-Critic(A2C)
    [예제 4-3] A2C로 최적 경로 찾기
    4.6 Asynchronous Methods for Deep Reinforcement Learning(A3C)
    4.7 강화학습의 발전 방향
    〉 4.7.1 다수의 에이전트(Multi Agent) 〈
    〉 4.7.2 희소 보상 문제(Sparse Reward Problem) 〈
    4.8 Curiosity
    〉 4.8.1 Exploration Bonus 〈
    〉 4.8.2 Count-Based Exploration Bonus 〈
    〉 4.8.3 Curiosity의 개념 〈
    4.9 Self-Imitation Learning
    [예제 4-4] SIL로 최적 경로 찾기(난이도 3)
    4.10 Exploration by Random Network Distillation
    [예제 4-5] RND로 최적 경로 찾기(난이도 3)


    Chapter 5. 심층 강화학습을 이용한 프로젝트
    5.1 1단계 프로젝트
    〉 5.1.1 Environment 소개 〈
    〉 5.1.2 State 설계 〈
    〉 5.1.3 Reward 설계 〈
    〉 5.1.4 1단계 프로젝트 학습 코드 〈
    5.2 2단계 프로젝트
    〉 5.2.1 Environment 소개 〈
    〉 5.2.2 State 설계 〈
    〉 5.2.3 Reward 설계 〈
    〉 5.2.4 2단계 프로젝트 학습 코드 〈
    5.3 3단계 프로젝트
    〉 5.3.1 Environment 소개 〈
    〉 5.3.2 3단계 프로젝트 학습 코드 〈


    Chapter 6. 최신 강화학습 트렌드
    6.1 Trust Region Policy Optimization(TRPO)
    6.2 Proximal Policy Optimization(PPO)
    6.3 Distributed Prioritized Experience Replay(Ape-X)
    6.4 Never Give Up(NGU)
    6.5 Rewarding Impact-Driven Exploration (RIDE)
    6.6 BeBold
    〉 6.6.1 Episodic Restriction on Intrinsic Reward(ERIR) 〈
    6.7 Surprise Minimizing Reinforcement Learning(SMiRL)


    그림 출처
    찾아보기

출판사 서평

베타 리더 추천사
대부분의 실용성을 목적으로 한 딥러닝 책과는 현저히 다른 차별점을 보입니다. 코딩 중심으로 풀어나가야 하는 내용을 코딩만으로 풀어나가거나 이론에 대한 설명이 부족한 책이 많은 데에 비해, 이 책은 적절한 예시와 설명과 함께 제일 중요한 수리적 기반 및 매커니즘을 제시합니다. 특히 코드에서 각 부분마다 #(n)로 친절한 분석을 제공하고 있어, 코딩 자체의 구조가 헷갈리거나 처음 보는 구문이 있더라도 쉽게 이해할 수 있을 것입니다. 패키지 설치 없이 온전히 R의 기본 언어들로 구조를 만들었기 때문에 기초를 탄탄히 다질 수 있고, 근본적인 로직에 대한 이해력도 올라가는 느낌입니다.
_ 김한영 (데이터 사이언티스트)

시중에 R 과 관련된 책들은 대부분 전통적인 통계학이나 데이터 분석을 주로 다루는 반면 강화학습을 다루는 책들은 대부분 파이썬으로 코드를 제시합니다. 통계 및 시뮬레이션이 핵심인 강화학습 알고리즘을 R로 구현하는 책은 그간 없었는데, 그러한 갈증을 해소할 만한 좋은 책입니다. 책의 전반적인 서술은 흠잡을 곳이 없고 입문자도 쉽게 이해할 수 있게 잘 설명되어 있습니다. 단순히 개념 설명과 수식전개에서 그치지 않고, 실제 손으로도 계산해볼 수도 있을 만큼 간단한 예제를 제시하여 확실하게 개념을 이해할 수 있습니다. 다루기 다소 방대한 주제에도 불구하고 읽기 부담스럽지 않게 300페이지 내외로 서술되어 있으며, 패키지에 의존하지 않고 R 내장 함수로만 구현되어 있으므로 다소 응용만 한다면 다른 언어로도 손쉽게 포팅도 가능할 것 같습니다.
_ 원동식 (대학원생)

R을 이용하여 머신러닝과 딥러닝의 기초부터 충분히 설명하고 있어 초심자나 중급자 모두가 이해할 수 있습니다. 특히 R을 이용해 강화학습을 설명하는 책은 별로 없었는데 이 책은 그 점에서도 큰 가치가 있다고 생각합니다.
_ 송진영 (데이터 분석가)

R을 활용하여 밑바닥부터 강화학습을 구현하는 책입니다. R은 Python 같은 범용 언어에 비해 유연성은 부족하지만 군더더기를 걷어낸 핵심 로직에 집중할 수 있어, 강화학습과 같은 난이도 높은 알고리즘을 연구하기에 제격이라 생각합니다. 이 책은 Q-learning을 직접 손으로 풀어보고 Grid World를 활용하여 3단계 심층 강화학습 실습을 거치는 구성이 인상적이었는데, 특히 강화학습과 관련된 주요 논문들의 핵심 분석 과정이 백미입니다. 책 말미에는 TRPO, SMiRL와 같은 최신 주제도 다룹니다. 강화학습은 그 자체로도 난이도가 상당하며, 이 책에서는 수식을 정면 돌파하기 때문에 입문자보다는 딥러닝에 익숙한 분들께 추천해 드리고 싶습니다.
_ 허민 (데이터 분석가)

기본정보

상품정보 테이블로 ISBN, 발행(출시)일자 , 쪽수, 크기, 총권수을(를) 나타낸 표입니다.
ISBN 9791165920746
발행(출시)일자 2021년 06월 29일
쪽수 332쪽
크기
189 * 246 * 22 mm / 824 g
총권수 1권

Klover 리뷰 (3)

구매 후 리뷰 작성 시, e교환권 200원 적립

10점 중 7.5점
/도움돼요
R로 딥러닝을 공부하는 책이 흔하지 않은데 이 책은 강화학습 패키지 없이 직접 R로 코드를 짜보는 것을 컨셉으로 한다. 사실 패키지 설치해서 돌려보기만 하면 내 것이 된 느낌이 전혀 안 드므로 이러한 접근 방식은 좋다고 할 수 있다. 이러한 접근 방식은 책의 곳곳에서 확인할 수 있는데 '손으로 풀어보는 큐 러닝'과 같이 코드를 쓰지 않고 직접 풀어 보는 것도 마찬가지 의미로 이해에 큰 도움이 되었다. 책의 내용은 강화학습의 전반적인 내용을 학습하기(환경 설정, 기본 개념, 현업 프로젝트, 최신 연구동향 등)에 빠짐이 없이 적합하다.

다만 한 가지 아쉬운 점은 나의 R 실력이 미천해서인지 코드 가독성이 그리 좋지 않다고 느낀다. 하다 못해 syntaxes highlighting이라도 프린트 되어 있었다면 코드 리딩에 도움이 되었을 것 같다.
10점 중 10점
/추천해요
머신러닝과 딥러닝에 관심을 갖고 배우던 중에 이 책을 접하게 되었습니다. 시중에 나와있는 딥러닝이나 강화학습 교재들 중 R로 구현된 책이 거의 없는데 이 책은 R로 구현되어 있어 R을 주로 사용하는 제 입장에서 정말 도움이 되었던 것 같습니다. 그리고 책의 분량도 약 300페이지 정도로 부담되지 않고 공부에 대한 의지만 있다면 충분히 학습가능한 분량입니다. 또한 책 후반부에서는 심층강화학습 프로젝트와 최신트렌드를 다루고 있는데 프로젝트의 코드를 단계별로 세분화해 설명을 해놓아 책을 보며 공부하는 학생 입장에서도 따라하기 좋은 자료인것 같습니다. 강화학습을 공부하고 싶고 최신 강화학습 트렌드를 저자의 자세한 설명과 함께 보다 쉽게 파악하고 싶은 분들께 추천합니다!
리뷰 썸네일
10점 중 10점
/추천해요
기존의 통계분석분야에선 R이 강세를 보이고 있지만, 인공지능분야에선 파이썬이 보다 대중적으로 쓰이고 있습니다. 해당 책은 R 사용자들도 새로운 언어습득에 대한 부담을 낮추고 개념적인 구현을 바탕으로 강화학습을 접근할 수 있도록 기초부터 구현할 수 있게 쓴 책입니다. 처음 책을 펼쳐보고 든 생각은 책 자체의 내용은 딥러닝의 기본서처럼 언급되는 '밑바닥부터 시작하는 딥러닝'과 비슷한 구조를 갖고 있다는 것이었습니다. 그러나 추가적으로 본 책은 머신러닝부터 딥러닝, 강화학습(기초부터 최근 활용하는 모델까지) 등 기초적인 개념을 우선 쉬운 예시를 들어가며 설명하고, 이론 및 구현으로 나아갑니다. 그리고 중간중간 손으로 직접 풀어보는 Q-learning, 예제문제 등 챕터별 개념을 확인해 보기 좋은 방식을 도입하였습니다. 그러나 강화학습 자체가 >행위에 대한 상벌로 인공지능을 학습시킨다>는 보다 생물의 학습에 가깝고 직관적인 개념이지만 파고들수록 개념적으로, 그리고 수학적으로 이해하기 상당히 어려운데 본 책은 개념적인 부분이나 기초 설명은 큰 부분을 차지하지 않기 때문에 초심자보단 최소한 머신러닝과 딥러닝에 대한 이론적 지식이 있는 분들(중급자 이상)에게 추천합니다.
리뷰 썸네일

문장수집 (0)

문장수집 안내
문장수집은 고객님들이 직접 선정한 책의 좋은 문장을 보여주는 교보문고의 새로운 서비스입니다. 마음을 두드린 문장들을 기록하고 좋은 글귀들은 "좋아요“ 하여 모아보세요. 도서 문장과 무관한 내용 등록 시 별도 통보 없이 삭제될 수 있습니다.
리워드 안내
구매 후 90일 이내에 문장수집 작성 시 e교환권 100원을 적립해드립니다.
e교환권은 적립 일로부터 180일 동안 사용 가능합니다. 리워드는 작성 후 다음 날 제공되며, 발송 전 작성 시 발송 완료 후 익일 제공됩니다.
리워드는 한 상품에 최초 1회만 제공됩니다.
주문취소/반품/절판/품절 시 리워드 대상에서 제외됩니다.
판매가 5,000원 미만 상품의 경우 리워드 지급 대상에서 제외됩니다. (2024년 9월 30일부터 적용)

구매 후 리뷰 작성 시, e교환권 100원 적립

이 책의 첫 기록을 남겨주세요.

교환/반품/품절 안내

  • 반품/교환방법

    마이룸 > 주문관리 > 주문/배송내역 > 주문조회 > 반품/교환 신청, [1:1 상담 > 반품/교환/환불] 또는 고객센터 (1544-1900)
    * 오픈마켓, 해외배송 주문, 기프트 주문시 [1:1 상담>반품/교환/환불] 또는 고객센터 (1544-1900)
  • 반품/교환가능 기간

    변심반품의 경우 수령 후 7일 이내,
    상품의 결함 및 계약내용과 다를 경우 문제점 발견 후 30일 이내
  • 반품/교환비용

    변심 혹은 구매착오로 인한 반품/교환은 반송료 고객 부담
  • 반품/교환 불가 사유

    1) 소비자의 책임 있는 사유로 상품 등이 손실 또는 훼손된 경우
    (단지 확인을 위한 포장 훼손은 제외)
    2) 소비자의 사용, 포장 개봉에 의해 상품 등의 가치가 현저히 감소한 경우
    예) 화장품, 식품, 가전제품(악세서리 포함) 등
    3) 복제가 가능한 상품 등의 포장을 훼손한 경우
    예) 음반/DVD/비디오, 소프트웨어, 만화책, 잡지, 영상 화보집
    4) 소비자의 요청에 따라 개별적으로 주문 제작되는 상품의 경우 ((1)해외주문도서)
    5) 디지털 컨텐츠인 ebook, 오디오북 등을 1회이상 ‘다운로드’를 받았거나 '바로보기'로 열람한 경우
    6) 시간의 경과에 의해 재판매가 곤란한 정도로 가치가 현저히 감소한 경우
    7) 전자상거래 등에서의 소비자보호에 관한 법률이 정하는 소비자 청약철회 제한 내용에 해당되는 경우
    8) 세트상품 일부만 반품 불가 (필요시 세트상품 반품 후 낱권 재구매)
    9) 기타 반품 불가 품목 - 잡지, 테이프, 대학입시자료, 사진집, 방통대 교재, 교과서, 만화, 미디어전품목, 악보집, 정부간행물, 지도, 각종 수험서, 적성검사자료, 성경, 사전, 법령집, 지류, 필기구류, 시즌상품, 개봉한 상품 등
  • 상품 품절

    공급사(출판사) 재고 사정에 의해 품절/지연될 수 있으며, 품절 시 관련 사항에 대해서는 이메일과 문자로 안내드리겠습니다.
  • 소비자 피해보상 환불 지연에 따른 배상

    1) 상품의 불량에 의한 교환, A/S, 환불, 품질보증 및 피해보상 등에 관한 사항은 소비자분쟁 해결 기준 (공정거래위원회 고시)에 준하여 처리됨
    2) 대금 환불 및 환불지연에 따른 배상금 지급 조건, 절차 등은 전자상거래 등에서의 소비자 보호에 관한 법률에 따라 처리함

상품 설명에 반품/교환 관련한 안내가 있는 경우 그 내용을 우선으로 합니다. (업체 사정에 따라 달라질 수 있습니다.)

기분 좋은 발견

이 분야의 베스트

이 분야의 신간

TOP