본문 바로가기

ML&DL7

딥러닝 학습 과정에 대해 ▶ 학습이란 딥러닝 훈련 혹은 학습이란, 입력에 대한 모델이 예측한 답과 실제 정답의 차이를 줄여나가기 위한 과정 그리고 그를 위해, 딥러닝의 가중치를 업데이트하는 과정 그렇다면 학습을 위해 필요한 것과 그를 위한 과정은 다음과 같습니다. 입력에 대한 예측 값 > 순전파 정답과 예측의 차이 값 > 손실 함수 계산 가중치의 정보(기울기, 미분 값 등) > 역전파 그리고, 그 가중치를 업데이트하는 방법 > 최적화 ▶ 순전파, Forward Propagation 순전파는, 단순히 입력에 대한 딥러닝 모델의 답을 구하는 과정입니다. 공(Ball) 이미지가 들어왔을 때, 해당 공이 어떤 스포츠 공(5종: 축구, 농구, 야구, 골프, 탁구)인지 분류하는 모델이 있다고 해보겠습니다. 그렇다면 이미지는 입력층 -> 히.. 2024. 3. 7.
CNN, 인간의 이미지 인식 과정을 흉내낸 방식 - 딥러닝, 컴퓨터 비전 CNN, Convolutional Neural Network ▶ MLP의 문제 MLP는 비교적 간단한 구조를 통해, 복잡한 비선형성 데이터를 학습할 수 있다는 장점이 있다. 하지만 이미지 분야에서는 뛰어난 성능을 보이지 않는다. 이미지 데이터란, 색이라는 값을 가진 픽셀이 모여, 사물, 동물과 같은 의미를 가지는 객체를 보여주는 데이터를 의미한다. 사람은 이 이미지 데이터에서 모든 데이터, 즉 모든 픽셀 하나하나를 의미있게 보지 않는다. 특정 위치나 특정 모양, 그 이미지가 가진 특징의 조합을 중요하게 여기고, 그들을 통해 이 이미지는 '사람이겠구나..' 하고 인지하게 된다. 하지만 MLP는 이 과정에서 사람의 인지과정과 차이가 생긴다. MLP는 모든 픽셀을 중요한 데이터로 여기게 된다. 또한 MLP의 .. 2024. 2. 26.
신경망이 깊어질수록 생기는 문제점과 해결책 개념 정리 - 딥러닝 신경망은 단순히 보자면 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)로 나뉜다. 하지만 딥러닝의 역사가 깊어짐에 따라, 신경망도 깊어지고 복잡해지게 되었습니다. 그로인해 학습의 난이도도 올라가게 되었습니다. ※ 의문점 단순히 생각한다면, 계산을 하는 주체들인 노드와, 그 집합인 레이어가 늘어난다면 더 복잡한 계산이 가능해지지 않나? -> 추가로 복잡한 요구를 충족시킬 정도의 신경망을 구할 수 있는거 아닌가? -> 계산량이 문제라면, 요즘 GPU와 같은 컴퓨팅 자원의 가격과 성능면에서 우수하니 많은 투입하면 되지 않나? -> 따라서, 단순히 깊게 쌓을 수록 좋은거 아닌가? 하지만 신경망은 그리 단순하게 쌓기만 한다고 높은 성능을 보장하지 않습니다. 신경망.. 2024. 2. 15.
selective search 코드 리뷰 - 파이썬, 컴퓨터 비전 selective search 란, object detection 분야에서 객체가 있을만한 위치를 제안해주는 알고리즘이다. 비슷한 목적의 알고리즘인 sliding window 방식보다 효율적으로 처리할 수 있다. ( 구글 코랩의 환경에서 제작되었습니다.) import selectivesearch import cv2 import matplotlib.pyplot as plt import os from google.colab.patches import cv2_imshow img_path = '/content/NMMP_dolphin_with_locator.jpeg' img = cv2.imread(img_path) img_rgb = cv2.cvtColor(img, cv2.COLOR_BGR2RGB) plt.imsh.. 2024. 2. 11.
[논문리뷰] R-CNN - 딥러닝, 컴퓨터 비전, 객체 탐지 (Object Detection) Rich feature hierarchies for accurate object detection and semantic segmentation 논문과 (논문리뷰) R-CNN 설명 및 정리 :: 프라이데이 (tistory.com)를 참고하여 작성했습니다. R-CNN : Regions with CNN features □ 등장배경 CNN이 이미지 분류(Image Classification)에서 뛰어난 성능을 보여주기 시작한 이후, 이를 객체 탐지(Object Detection) 분야에 적용하고자 하는 시도에서 나온 결과물이다. Classification vs Detection □ 차이점 Classification, 말 그래도 주어진 이미지를 어느 카테고리에 속하는지 분류하는 분야. Detection, 주어진.. 2024. 1. 31.
[손실 함수] 크로스 엔트로피, 로그 손실 (cross-entropy, log loss) ▶ 직관분류 문제에서 평가 지표로 쓰이는 함수이다.cross-entropy(CE) ≒ log losscross-entropy : multi class log loss: binary class 값이 낮을 수록 해당 모델의 성능이 좋다는 의미.해당 함수의 의의는 단순히 정답을 맞춘 것 이상으로, 얼만큼 정확하게 맞췄냐에 대해 평가하기 위함.낮은 확률로 단순히 때려 맞췄는지, 높은 확률로 정확히 맞췄는지에 대해 평가하기 위한 지표.  > 예측에 대한 자신감 정도  cross-entropy ≒ log losscross-entropy : multi class log loss: binary class 위 내용 대해 다시 살펴보자면, LogLoss가 이진 분류에 대한 수식, CE는 이를 다중 분류로 확장시킨 수식임을.. 2023. 12. 29.