본문 바로가기
번역한 IT 책/딥러닝 모델 설계를 떠받치는 기술

"딥러닝 모델 설계를 떠받치는 기술" 정오표

by 아리가람 아리가람1 2020. 5. 7.

----- 2020년 5월 7일, 1차 게시 -----

p4, 본문, 밑에서 네 번째 줄: 도입하는 알과 --> 도입하는 일과

p5, 본문, 위에서 다섯 번째 줄: 바람직하지 않는다. --> 바람직하지 않다.

p7, 본문, 위에서 일곱 번째 줄: 빠르지 않는다는 --> 빠르지 않다는

p12, 본문, 밑에서 네 번째 줄: 사용하게 되면 --> 사용해도 

p28, 본문, 위에서 세 번째 줄: 더 높은 고위 다항식 --> 고위 다항식

p28, 본문, 중간: 많은 간단한 회귀 문제는 --> 많고 간단한 회귀 문제는 

p45, 본문, 밑에서 두 번째 줄: 이렇게 하기가 정말 하기 쉬우며, --> 이렇게 하기가 정말 쉬우며 

p50, 본문, 두 번째 줄: train 손실에 있어서 --> 훈련 손실에 있어서 

p59, 본문, 두 번째 줄: 테스트 점수를 알아내기 위해 --> 시험 성적을 알아내기 위해

p61, 본문, 두 번째 줄: 은닉 계층이 없고 입력과 출력만 있는 --> 은닉 계층이 없고 입력 계층과 출력 계층만 있는 

p62, 본문, 첫 번째 줄: 입력 크기보다 조금 작은 --> 입력 크기인 178개 차원보다 조금 작은 

p72, 본문, '범주형 출력' 단원의 세 번째 줄: 이 모든 출력이 합쳤을 때 --> 이 모든 출력치를 더하면

p81, 코드, 위에서 세 번째 코드: print 앞에서 줄바꿈

p83, 코드, 밑에서 두 번째 줄: metrics의 앞에서 14칸 들여 쓰기  

p85, 본문, 밑에서 다섯 번째 줄: 정착화 파라미터로 --> 정칙화 파라미터로

p86, 각주, 밑에서 세 번째 줄: 편향치와 가중치라고 여기면 --> 편향치와 활성치라고 여기면 

p92, 본문, 위에서 열한 번째 줄: 탈락 확률이나 --> 탈락 확률(dropout probability)이나 

p95: 코드, 첫 번째 코드 뭉치의 두 번째 줄: batches 앞에서 네 칸 들여 쓰기 

p95: 코드, 네 번째 코드 뭉치의 두 번째 줄: param_distributions 앞에서 여섯 칸 들여서 쓰기 

p98, 코드, 두 번째 코드 뭉치의 두 번째 ~ 네 번째 줄: 모두 네 칸씩 들여서 쓰기 

p105: 본문, 첫 번째 줄: 향하고 있는지 타이어를 --> 향하고 있든지, 타이어를 

p107: 코드: 두 번째 코드 뭉치의 두 번째 줄: 네 칸을 들여서 쓰기

p120, 본문, '전이 학습을 사용해야만 하는 때' 단원의 첫 번째 줄: 있을 때와 유사한 --> 있을 때와, 유사한

p126, 본문, 세 번째 줄: data_setup.py을 --> data_setup.py를 

p126, 코드, 두 번째 줄: rescalea --> rescale

p143, 본문, 첫 번째 줄: 무역업자들 --> 중개인들 

p144, 본문, 두 번째 줄: 훈련 데이터를 테스트 데이터에서 --> 훈련 데이터에서 테스트 데이터를 

p155, 본문, 밑에서 두 번째 줄: 이어서 매장 계층이라는 --> 이어서 임베딩 계층(embedding layer, 즉 '매장 계층')이라는 

p159, 본문, 밑에서 열 번째 줄: 타결 짓고 싶어 할 것입니다"라고 --> 합의하는 게 좋겠습니다"라고 

p160, 본문, 밑에서 다섯 번째 줄: 필요한 데다가, 모델의 --> 필요한데, 게다가 모델의 

p164, 본문, 밑에서 두 번째 줄: 더 작고 밀도가 높은  --> 더 작고 조밀한 

p169, 본문, 위에서 두 번째 줄: 평균 의미론적 --> 의미론적 평균 

p169, 본문, 두 번째 단락의 밑에서 두 번째 줄: 입력 특징를 --> 입력 특징을 

p175, 본문, 밑에서 세 번째 줄: 최적의 값을 검색해야 한다 --> 최적의 값을 직접 알아내야 한다

p176, 본문, '종합하기' 단원, 위에서 첫 번째 줄: 부품들을 파악할 때다 --> 구성요소들을 파악할 때다 

p185, 본문, 밑에서 일곱 번째 줄: 가지고 있다어서 --> 가지고 있어서 

p197, 본문, 밑에서 다섯 번째 줄: 솔직히 탐이 --> 솔직히 톰이 

p200, 본문, 위에서 첫 번째 줄: 각 구를 --> 각 구(phrases)를 

p222: 본문, 위에서 두 번째 줄: 더 작은 경우에 에이전트 무작위 행동을 수행한다. --> 더 작은 경우에만 에이전트가 무작위 행동을 수행하게 하자는 것이다. 

p222, 본문, 위에서 네 번째 줄: 에이전트가 처음으로 시작되면 --> 에이전트가 처음으로 행동을 하기 시작했을 때에는 

p223, 본문, 'Keras-RL 설치' 단원의 위에서 세 번째 줄: setup.py을 --> setup.py를 

p223, 코드, 첫 번째 코드 뭉치: cd keras-rl을 별도의 줄로 처리 

p223: 본문, 밑에서 첫 번째 줄: 다음 코드를 사용해 --> 다음 명령으로 

p227, 본문, 두 번째 줄: 에이전트를 한 개를 생성하고 --> 에이전트 한 개를 생성해 

p231, 본문, 다섯 번째 줄: 각주 번호 삭제

p236, 본문, 첫 번째 줄: 마구잡이 잡음(random noise) (z)의 벡터를 --> 마구잡이 잡음(random noise)으로 채워진 z라는 벡터를 

p236, 본문, 세 번째 줄: 이 방법은 입력 내용이 실제로 진품 P(X)일 가능성을 결정하는 것이다 --> 이런 방식으로 입력 내용이 실제로도 진품일 가능성인 P(X)를 결정할 수 있다. 

p240, 본문, 첫 번째 줄: loss 함수는 --> 손실 함수는 

p240, 본문, 세 번째 줄: loss는 판별기를 통해 --> 손실(loss)은 판별기를 통해 

p240, 본문, 'GAN 훈련에 실패하는 방법' 단원의 첫 번째 줄: GAN을 훈련하는데 --> GAN을 훈련하는 데 

p247, 본문, 위에서 다섯 번째 줄: 학습율을 --> 학습속도를 

 

 

댓글0