-
계산 그래프를 신경망에 적용해봅시다. 신경망을 구성하는 층 각각은 하나의 클래스로 구현됩니다. 이 글에서는 ReLU와 Sigmoid 계층을 구현하도록 하겠습니다. ReLU relu 함수의 수식입니다. 따라서 relu함수의 미분은 아래와 같이 됩니다. 계산 그래프로 함께 보겠습니다. class Relu: def __init__(self): self.mask = None def forward(self, x): self.mask = (x