분류 전체보기 96

QuestionAI - 美 파고든 중국산 '수학문제 풀이 AI 앱'

"과외 1시간 받을 돈으로 1년 구독"…美 파고든 중국산 'AI 앱' [세계한잔] : 네이트 뉴스 - https://m.news.nate.com/view/20240605n01615 세계한잔 ※[세계한잔]은 우리 삶과 맞닿은 세계 곳곳의 뉴스를 에스프레소 한잔처럼, 진하게 우려내 한잔에 담는 중앙일보 국제팀의 온라인 연재물" data-og-host="m.news.nate.com" data-og-source-url="https://m.news.nate.com/view/20240605n01615" data-og-url="https://m.news.nate.com/view/20240605n01615?mid=m04" data-og-image="https://scrap.kakaocdn.net/dn/8dYEf/hyW..

Issues 2024.06.07

[코테] 99클럽 코테 스터디 17일차 TIL - Greedy

Question1 - [미들러] 구명보트  문제설명 https://school.programmers.co.kr/learn/courses/30/lessons/42885 무인도에 갇힌 사람들을 구명보트를 이용하여 구출하려고 합니다. 구명보트는 작아서 한 번에 최대 2명씩 밖에 탈 수 없고, 무게 제한도 있습니다. 예를 들어, 사람들의 몸무게가 [70kg, 50kg, 80kg, 50kg]이고 구명보트의 무게 제한이 100kg이라면 2번째 사람과 4번째 사람은 같이 탈 수 있지만 1번째 사람과 3번째 사람의 무게의 합은 150kg이므로 구명보트의 무게 제한을 초과하여 같이 탈 수 없습니다. 구명보트를 최대한 적게 사용하여 모든 사람을 구출하려고 합니다. 사람들의 몸무게를 담은 배열 people과 구명보트의 무게..

Dev 2024.06.05

[코테] 99클럽 코테 스터디 16일차 TIL - Greedy

Question1 - [미들러] 조이스틱 문제설명 https://school.programmers.co.kr/learn/courses/30/lessons/42860  조이스틱으로 알파벳 이름을 완성하세요. 맨 처음엔 A로만 이루어져 있습니다.ex) 완성해야 하는 이름이 세 글자면 AAA, 네 글자면 AAAA 조이스틱을 각 방향으로 움직이면 아래와 같습니다. ▲ - 다음 알파벳▼ - 이전 알파벳 (A에서 아래쪽으로 이동하면 Z로)◀ - 커서를 왼쪽으로 이동 (첫 번째 위치에서 왼쪽으로 이동하면 마지막 문자에 커서)▶ - 커서를 오른쪽으로 이동 (마지막 위치에서 오른쪽으로 이동하면 첫 번째 문자에 커서) 예를 들어 아래의 방법으로 "JAZ"를 만들 수 있습니다.- 첫 번째 위치에서 조이스틱을 위로 9번 조작..

Dev 2024.06.05

“AI 아무리 많이 학습해도 인과적 사고 불가능”

https://www.hani.co.kr/arti/economy/it/1143489.html#cb 마커스 “AI 아무리 많이 학습해도 인과적 사고 불가능”“인공지능(AI)이 아무리 많은 데이터를 학습한다고 해도 인간처럼 세계 모델을 구축하고 인과적 사고를 할 수는 없다.” 게리 마커스 뉴욕대 명예교수는 인간 인지와 기계 인지의 차이점에 기www.hani.co.kr과연 정말 그럴까..

Issues 2024.06.05

[네이버AI class] 6주차 (5) - 정규화 (Regularization)

Regularization  정규화는 모델의 일반화 능력을 향상시키기 위한 중요한 기법중 하나로, 모델이 학습데이터에만 맞춰진 overfitting 학습을 방해 및 규제하여, 일반화 증진을 하는 것이 그 목적이다.즉 모델이 학습 데이터에만 잘 적용되는 것이 아니라 테스트 데이터나 실제 새로운 데이터에도 잘 일반화되도록 모델을 조정하는 과정이다. 아래 다양한 종류의 정규화 기법들을, 실제 딥러닝 모델링 할때 상황에 맞게 취사 선택해가면서 적용해볼 수 있다.   1) Early stopping Early stopping은 모델이 과적합될 때 학습을 조기에 멈추는 기법이다.학습을 멈출때에 validation 에러를 이용해서, training에 포함되지 않은 valid 데이터의 loss가 커지기 시작하는 시점에..

ML study 2024.06.04

[네이버AI class] 6주차 (4) - 경사하강법 & Optimizer 종류

경사 하강법의 종류   경사 하강법(Gradient Descent)은 모델을 학습시킬 때 사용되는 최적화 알고리즘 중 하나이며, 경사하강법은 세가지 종류가 있다. 데이터 학습시 한번의 업데이트에 데이터를 얼마나 많이 사용하는지에 따라 분류된다고 볼 수 있다. 실제로는 많은 경우 Mini-Batch 경사하강법을 활용한다.  1)  Stochastic Gradient Method  한번에 하나의 데이터 포인트를 사용하여 업데이트한다. 각 훈련 데이터 포인트에 대해 손실 함수의 그래디언트를 계산하고, 이를 사용하여 매개변수를 업데이트하는 방법이다.각 데이터 포인트를 한 번에 처리하기 때문에 계산 속도가 빠르고 대규모 처리가 가능하나, 불안정성이 높고 오래 걸릴 수 있다.  2) Mini-batch Gradie..

ML study 2024.06.04

[코테] 99클럽 코테 스터디 15일차 TIL - BFS

Question1 - [미들러] 홀수 층의 이진트리를 역배열 ( Reverse Odd Levels of Binary Tree)  문제설명 https://leetcode.com/problems/reverse-odd-levels-of-binary-tree/description/ Given the root of a perfect binary tree, reverse the node values at each odd level of the tree.For example, suppose the node values at level 3 are [2,1,3,4,7,11,29,18], then it should become [18,29,11,7,4,3,1,2].Return the root of the reversed ..

Dev 2024.06.04

[네이버AI class] 6주차 (3) - 최적화 주요 용어

Optimization 은 매우 크고 광범위한 주제이지만, 실제 Optimization 작업을 할 때 꼭 알아야 할 개념들을 중심으로만 소개한 내용    1. Gradient Descent  경사 하강법 - 그것이 줄어 들었을때 Optima를 찾을 수 있을 것이라 기대되는 Loss function이 존재하고, 찾고자 하는 파라미터의 편미분을 이용해서 loss function을 줄이는 방향으로 학습을 하는 것 ('First-order iterative optimization algrithm for finding a local minimum of a differentiable function)    2. Generalization  많은 경우, 모델의 일반화 성능을 높이는 것이 모델링의 목적이 됨. Trai..

ML study 2024.06.03

[네이버AI class] 6주차 (2) - MLP 뉴럴 네트워크

Neural Networks가장 간단한 형태의 뉴럴 네트워크를 알아보고, 딥러닝 학습이 무엇인지를 알아보자.우선 뉴럴 네트워크란 무엇인가?  설명 1 - 뇌와의 연관성   뉴럴 네트워크란, 인간/동물의 뇌의 뉴런 구조에서 영감을 받아 설계된 컴퓨팅 시스템으로,데이터 패턴을 인식하고 학습하는 데 사용된다.("Neural networks are computing systems vaguely inspired by the biological neural networks that constitute animal brains")인간의 뉴런을 구성하는 생물학적 요소들을 비유적으로 따오긴 했지만, 완벽히 인간의 뇌를 닮은 구조를 만들어서 성능이 좋은 모델을 개발했다기엔 어려운 지점이 있음. 개념적으로 뇌의 작동과 다..

ML study 2024.06.03