Relu1 활성화 함수: 정의와 종류, 비선형 함수를 사용해야 하는 이유 안녕하세요. 모두의 케빈입니다. 오늘은 딥 러닝에서 사용되는 활성화 함수의 개념과 왜 비선형 활성화 함수를 사용해야 하는지, 그리고 대표적인 비선형 활성화 함수들에 대해 알아보도록 하겠습니다. ■ 활성화 함수란 활성화 함수는 인공 신경망에서 입력값을 변환하는 함수입니다. 대표적으로는 Sigmoid, ReLu 등이 있습니다. 인공 신경망은 인간 두뇌 활동을 모방하기 위해 뉴런의 구조를 참고했습니다. 뉴런은 일정 세기 이상의 자극일 경우에만 신호를 전달하는 계단 함수(Step) 방식을 사용합니다. 따라서 최초의 인공 신경망이라고 평가받는 퍼셉트론은 계단 함수를 사용했습니다. 하지만 이러한 방식으로는 인공 신경망의 학습이 제대로 이루어지기 어려웠습니다. 인간은 오랜 시간 동안 하나의 분야를 탐구하고 학습하지만.. 2022. 11. 1. 이전 1 다음