728x90 반응형 SMALL DL/기초 공부6 Gradient Descent 2024. 11. 18. 지도학습vs비지도학습vs자기지도학습vs강화학습 1. 지도학습 : 정답(labeling이되어있는)알고 있는 상태로 학습하여 결과를 도출 : classification, localization, Object Detection, Segmentation, pose estimation 이 지도학습에 해당 : 하지만, 꼭 지도학습으로만 결과를 도출하는 것이 아니라 다른 여러가지 방법으로도 가능하다! 2. 비지도학습 : 정답을 모르는 상태로 학습 : 군집화, 차원 축소같은 것이 해당된다. 3. 자기지도학습 : 정답을 알고 있는 데이터가 적을때 사용된다. : downstream task(진짜해결해야하는 문제)를 풀기전, pretext task(다른 문제)를 새롭게 정의하여 학습한다. : ex1) 고양이 사진 분류 문제 (1) 사진으로.. 2024. 11. 18. 인공지능이란? 인공지능이란? - 인간의 지능을 인공적으로 만든 것 - 인간의 사고방식을 흉내내는 것 인공지능 vs 머신러닝 vs 딥러닝 - 인공지능 -> Rule-based algorithms : 규칙을 찾아내서 알아낸다. - 머신러닝 -> 결정 트리, 선형 회귀, 퍼셉트론, SVM - 딥러닝 -> CNN, RNN, GAN : 깊은 인공 신경망으로 학습한다. 딥러닝의 입력과 출력 - 숫자를 입력하여 숫자를 출력한다. - 우리가 보는 이미지의 R/G/B 세개의 색(채널)로 조합되어진 것이다. -> 3차원 행렬형태로 나타낼수 있다. - RNN : 문장도 숫자로 변환되어 입력된다. - GAN : 두가지 학습이 있다. (Generator / Discriminator) GAN의 출력은 Generator의 출력이다. G와 D는 .. 2024. 1. 22. [통계] 확률 1. 확률 시행 : 반복할 수 있으며, 매번 결과가 달라질 수 있는 실험 사건 : 시행에 따른 결과 확률 : 어떠한 사건이 일어날 가능성 확률변수 : 시행할 때마다 변할 수 있는 값 확률함수 : 확률변수 에 따라서 확률 값을 부여하는 함수 예) 동전 던지기 시행 : 동전 2개 동시에 던지기 (0,1이 적혀있다) 확률 변수 : 두 눈금의 합 -> 0,1,2 표본 공간 : (0, 0), (0, 1), (1, 0), (1, 1) 확률 함수 : 1) P(X=0) = 1/4 2) P(X=1) = 1/2 3)P(X=0) = 1/4 이산확률변수 : 확률변수가 취할 수 있는 모든 값을 셀수 있는경우 확률질량변수 : 이산확률변수가 특정한 값을 가질 확률 조건부 확률 : P(Y|X) -> X가 Y일 확률 연속확률변수 : .. 2023. 12. 21. 퍼셉트론 - 2 * 밑바닥부터 시작하는 딥러닝 도서를 참조하여 기초 공부중 * 책을 보며 필기하고 간략한 메모 형식으로 정리 [가중치와 편향 도입] [퍼셉트론의 한계] * 직선으로만 영역을 나눌 수 없는 것이 한계라고 표현하는 것 같다. 2023. 11. 2. 퍼셉트론 - 1 * 밑바닥부터 시작하는 딥러닝 도서를 참조하여 기초 공부중 * 책을 보며 필기하고 간략한 메모 형식으로 정리 [퍼셉트론] [AND Gate] [NAND Gate] 2023. 11. 1. 이전 1 다음 728x90 반응형 LIST