Tech blog

  • 홈
  • 태그
  • 방명록

이산확률변수 1

[네이버AI class] 4주차 (1) - 확률론

딥러닝과 확률론  딥러닝을 이해하기 위해서는 확률론을 이해해야 한다.특히 머신러닝의 loss function (손실함수) 작동원리가 데이터 공간을 통계적으로 해석하는 것을 전제하기 때문에, == '예측이 틀릴 위험 (risk)이 최소화 하도록 학습하는 원리' 개념에 확률론이 필요한 것. ex. 회귀 문제 - L2 Norm의 손실함수는, 예측 오차의 분산을 가장 최소화 하는 방향으로 학습을 유도한다ex. 분류 문제 - 분류에서의 교차엔트로피(Cross Entropy)는 모델 예측의 불확실성을 최소화 하는 방향으로 학습을 유도한다 이처럼 회귀 문제이든 분류 문제이든, 머신러닝에서의 손실함수(loss function)은데이터의 분포와 모델 예측 분포의 차이를 최소화 하는 방향으로 학습하는, 확률론 기반 학습이..

ML study 2024.05.21
이전
1
다음
더보기
프로필사진

  • 분류 전체보기 (96)
    • MLOps (19)
    • NLP | LLM (4)
    • Issues (7)
    • Dev (41)
    • ML system (5)
    • ML study (13)
    • Strategy (0)
    • Data Nrr (1)
    • Finance (0)

Tag

Optuna, DeepLearning, artifactstore, bestparams, backendstore, minio, gradient-descent, 항해99, python, 내용기반추천, python-turtle, 추천시스템, snakegame, pyfunc, pythonbasic, Content-based, mlflow, 99코테클럽, modelsave, 뱀게임,

최근글과 인기글

  • 최근글
  • 인기글

Archives

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바