gradient-descent 2

[네이버AI class] 6주차 (3) - 최적화 주요 용어

Optimization 은 매우 크고 광범위한 주제이지만, 실제 Optimization 작업을 할 때 꼭 알아야 할 개념들을 중심으로만 소개한 내용    1. Gradient Descent  경사 하강법 - 그것이 줄어 들었을때 Optima를 찾을 수 있을 것이라 기대되는 Loss function이 존재하고, 찾고자 하는 파라미터의 편미분을 이용해서 loss function을 줄이는 방향으로 학습을 하는 것 ('First-order iterative optimization algrithm for finding a local minimum of a differentiable function)    2. Generalization  많은 경우, 모델의 일반화 성능을 높이는 것이 모델링의 목적이 됨. Trai..

ML study 2024.06.03

[네이버AI class] 3주차 (3) - 경사하강법

미분 (differentiation)미분이란 '한 점에서의 기울기' 이다.이는 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구로, 최적화에서 많이 사용하는 기법이다.미분은 변화율의 극한으로 정의하는데, 어떤 기울기를 계산할때, f(x+h) - f(x)를 h로 나눈 것, 이 변화율의 극한값이 미분이다.  미분을 구하는 코드는 아래와 같음. sympy 라이브러리를 활용해서,  그 안에 diff 기능을 계산한다 (도함수 구하기)딥러닝에서도 이렇게 수치적으로 미분 계산 및 최적화 해서 활용할 예정.import sympy as sp# 변수 및 함수 정의x = sp.symbols('x') # 변수 x를 정의합니다.f = x**2 + 3*x + 2 # 미분할 함수를 정의합니다.# 함수를 x로 미분합니..

ML study 2024.05.20