문제의 간단한 해법과 함께 어떤 방식으로 접근했는지, 그리고 문제의 해법을 찾는데 결정적이었던 깨달음은 무엇이었는지
계산 그래프를 신경망에 적용해봅시다. 신경망을 구성하는 층 각각은 하나의 클래스로 구현됩니다. 이 글에서는 ReLU와 Sigmoid 계층을 구현하도록 하겠습니다. ReLU relu 함수의 수식입니다. 따라서 relu함수의 미분은 아래와 같이 됩니다. 계산 그래프로 함께 보겠습니다. class Relu: def __init__(self): self.mask = None def forward(self, x): self.mask = (x
* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.