상세정보
미리보기
혁펜하임의 Easy! 딥러닝
- 저자
- 혁펜하임 저
- 출판사
- 북엔드
- 출판일
- 2025-12-09
- 등록일
- 2026-01-28
- 파일포맷
- PDF
- 파일크기
- 66MB
- 공급사
- 예스이십사
- 지원기기
-
PC
PHONE
TABLET
웹뷰어
프로그램 수동설치
뷰어프로그램 설치 안내
책소개
『혁펜하임의 Easy! 딥러닝』은 딥러닝을 처음 접하는 독자들을 위한 필수 가이드로, 인공지능의 기초 개념부터 CNN, RNN 등 딥러닝의 주요 주제를 폭넓게 다루고 있다. KAIST 박사이자 유튜버로 활동 중인 혁펜하임이 집필한 이 책은 직관적인 비유를 통해 딥러닝의 원리를 체계적으로 이해할 수 있도록 설계되었다. 복잡한 딥러닝 개념도 저자의 쉽고 친절한 설명 덕분에 초보자도 부담 없이 따라갈 수 있으며, 280여 개의 그림과 동영상 강의는 학습 과정에 도움을 준다. 또한, 수학적 기초가 부족한 독자들을 위해 함수, 미적분 등 필수적인 수학 개념을 부록으로 제공하여 학습의 어려움을 덜어준다.이 책은 딥러닝을 처음 시작하는 입문자부터 어느 정도 지식을 쌓은 실무자까지 딥러닝의 깊은 이해에 필요한 지식을 얻을 수 있도록 돕는다. 『혁펜하임의 Easy! 딥러닝』은 명확하고 친근한 설명과 실습을 결합해 딥러닝의 기초를 탄탄히 다질 수 있는 최고의 학습서이다.
저자소개
누구나 쉽게 이해할 수 있는 최고의 설명법을 연구하는 딥러닝 전문 강사. 서강대학교에서 전자공학과 학사, KAIST에서 전기 및 전자공학부 석사 및 박사 학위를 받았다. 이후 삼성전자에서 책임연구원으로 근무하며 다양한 프로젝트를 수행했다. 현재 삼성서울병원 및 성균관대학교 의과대학에서 초빙강사로 강의를 진행하고 있으며, 딥러닝 강의 플랫폼 ‘혁펜하임 아카데미’의 대표로 활동 중이다. 서울대, 고려대, 한양대, 성균관대 등 여러 대학과 삼성전자, 삼성디스플레이, LG화학, GS칼텍스를 포함한 15개 이상의 주요 기업 및 기관에서 딥러닝 강의를 진행했다. 또한, 유튜브 채널을 운영하며 딥러닝 이론과 더불어 파이썬 코딩, 선형대수학, 컨벡스 최적화, 강화학습, 신호 및 시스템 등 다양한 주제의 강의를 무료로 제공하고 있다.
목차
지은이의 말이 책을 보는 방법Chapter 1 - 왜 현재 AI가 가장 핫할까?-1.1 AI(Artificial Intelligence) vs ML(Machine Learning) vs DL(Deep Learning)-1.2 규칙 기반(Rule-Based) vs 데이터 기반(Data-Based)-1.3 AI는 어떻게 이미지를 분류할까?-1.4 AI는 어떻게 번역을 할까?-1.5 지도 학습(Supervised Learning)-1.6 자기 지도 학습(Self-Supervised Learning)-1.7 비지도 학습(Unsupervised Learning)-1.8 강화 학습(Reinforcement Learning)Chapter 2 - 인공 신경망과 선형 회귀, 그리고 최적화 기법들-2.1 인공 신경: Weight와 Bias의 직관적 이해-2.2 인공 신경망과 MLP(Multi-Layer Perceptron)-2.3 인공 신경망은 함수다!-2.4 선형 회귀, 개념부터 알고리즘까지 step by step-2.5 경사 하강법(Gradient Descent)-2.5.1 경사 하강법의 두 가지 문제-2.6 웨이트 초기화(Weight Initialization)-2.7 확률적 경사 하강법(Stochastic Gradient Descent)-2.8 Mini-Batch Gradient Descent-2.8.1 Batch Size와 Learning Rate의 조절-2.9 Momentum-2.10 RMSProp(Root Mean Squared Propagation)-2.11 Adam(Adaptive Moment Estimation)-2.12 검증 데이터(Validation Data)-2.12.1 K-fold 교차 검증(K-fold Cross Validation)Chapter 3 - 딥러닝, 그것이 알고 싶다.-3.1 MLP, 행렬과 벡터로 표현하기-3.2 비선형(Non-Linear) 액티베이션의 중요성-3.3 역전파(Backpropagation)-3.3.1 학습 과정에서 Forward Propagation이 필요한 이유Chapter 4 - 이진 분류와 다중 분류-4.1 Unit Step Function을 이용한 이진 분류-4.1.1 Unit Step Function의 두 가지 문제와 Sigmoid-4.2 Sigmoid를 이용한 이진 분류-4.2.1 BCE(Binary Cross-Entropy) Loss-4.2.2 로지스틱 회귀(Logistic Regression)-4.3 MSE Loss vs BCE Loss-4.4 딥러닝과 MLE(Maximum Likelihood Estimation)-4.4.1 Loss 함수와 NLL(Negative Log-Likelihood)-4.5 다중 분류-4.5.1 Softmax-4.5.2 Cross-Entropy Loss-4.5.3 Softmax 회귀(Softmax Regression)Chapter 5 - 인공 신경망, 그 한계는 어디까지인가?-5.1 Universal Approximation Theorem-5.2 Universal Approximation Theorem 증명-5.3 Universal Approximation Theorem 오해와 진실Chapter 6 - 깊은 인공 신경망의 고질적 문제와 해결 방안-6.1 기울기 소실(Vanishing Gradient)과 과소적합(Underfitting)-6.1.1 ReLU(Rectified Linear Unit)-6.1.2 Sigmoid vs ReLU 실험 결과 분석-6.1.3 ReLU 그 후..-6.1.4 배치 정규화(Batch Normalization)-6.1.5 배치 정규화(Batch Normalization) 실험 결과 분석-6.1.6 레이어 정규화(Layer Normalization)-6.2 Loss landscape 문제와 ResNet의 Skip-Connection-6.3 과적합(Overfitting)-6.3.1 데이터 증강(Data Augmentation)-6.3.2 Dropout-6.3.3 오토인코더(Autoencoder)에 Dropout 적용, 실험 결과 분석-6.3.4 Regularization-6.3.5 Regularization과 MAP(Maximum A Posteriori)-6.3.6 L2-Regularization vs L1-Regularization 실험 결과 분석Chapter 7 - 왜 CNN이 이미지 데이터에 많이 쓰일까?-7.1 CNN은 어떻게 인간의 사고방식을 흉내 냈을까?-7.2 이미지 인식에서 FC 레이어가 가지는 문제-7.3 컨볼루션(Convolution)의 동작 방식-7.3.1 컨볼루션은 어떻게 위치별 특징을 추출할까?-7.3.2 특징 맵(Feature Map)-7.3.3 어떤 특징을 추출할지 AI가 알아낸다!-7.4 다채널 입력에 대한 컨볼루션-7.5 1x1 컨볼루션의 의미-7.6 Padding & Stride-7.7 Pooling 레이어-7.8 CNN의 전체 구조: 특징 추출부터 분류까지-7.9 CNN의 특징 맵 실험 결과 분석-7.10 VGGNet 완벽 해부-7.10.1 Receptive Field 개념과 여러 번 컨볼루션 레이어를 통과하는 이유-7.11 CNN에 대한 추가적인 고찰Chapter 8 - 왜 RNN보다 트랜스포머가 더 좋다는 걸까?-8.1 연속적인 데이터와 토크나이징(Tokenizing)-8.2 RNN의 동작 방식-8.3 다음 토큰 예측(Next Token Prediction)-8.4 RNN의 구조적 한계-8.5 RNN의 여러 가지 유형-8.6 Seq2seq 개념 및 문제점-8.7 Attention: 시점마다 다른 Context Vector의 사용-8.7.1 Attention: Context Vector 만들기-8.7.2 Attention의 학습 원리와 해석-8.7.3 RNN+Attention의 두 가지 문제점-8.8 트랜스포머의 Self-Attention-8.9 맺으며..부록: 딥러닝을 위한 필수 기초 수학-1-1강. 함수-1-2강. 로그함수-2-1강. 벡터와 행렬-2-2강. 전치와 내적-3-1강. 극한과 입실론-델타 논법-3-2강. 미분과 도함수-3-3강. 연쇄 법칙-3-4강. 편미분과 그래디언트-4-1강. 랜덤 변수와 확률 분포-4-2강. 평균과 분산-4-3강. 균등 분포와 정규 분포-5-1강. MLE(Maximum Likelihood Estimation)-5-2강. MAP(Maximum A Posteriori)-6강. 정보 이론 기초