전체 224

Dicision Trees

Stanford 대학의 CS229 머신러닝 강의에서 Lecture 10에 나오는 Dicision Tree에 대해서 보고 정리한 것이다.Dicision Tree시간과 위치(위도)가 주어지면 스키를 탈 수 있는지 없는지를 알려주는 분류기가 있다고 가정하자.위도는 남극의 음극의 90도부터 북극의 양극의 90도까지 있다.북극은 연초와 연말에 추우니 탈 수 있다, 남극은 반대로 된다. 적도는 항상 더우니 탈 수 없다.그래서 위와 같은 그래프가 나오게 된다.의사결정 트리로 무엇을 하고 싶은지 정확히 밝히려면 공간을 개별 영역으로 분할해야 한다.  우리가 의사결정 트리를 사용하는 방법은 기본적으로 Greedy하고, Top-Down, Recursive Partitioning가 있다.먼저 위도가 30도 보다 큰지에 대해..

AI/ML 2025.02.09

4th course: Special applications: Face recognition & Neural style transfer (C4W4L01 ~ C4W4L11)

C4W4L01 What is face recognition이 강의은 얼굴 인식에 대한 소개입니다. 얼굴 인식은 컴퓨터 비전의 한 분야로, 이미지나 비디오에서 사람의 얼굴을 식별하는 기술입니다. 얼굴 인식은 다양한 분야에서 활용되고 있으며, 대표적인 예로는 보안 시스템, 출입 통제, 금융 서비스 등이 있습니다.얼굴 인식 시스템은 크게 두 가지 단계로 구성된다. 첫 번째 단계는 얼굴 검출이다. 얼굴 검출은 이미지나 비디오에서 얼굴이 있는지 여부를 판단하고, 얼굴의 위치를 찾는 과정이다. 두 번째 단계는 얼굴 인식이다. 얼굴 인식은 검출된 얼굴의 특징을 분석하여 개인을 식별하는 과정이다.얼굴 인식 시스템의 성능은 다양한 요인에 의해 결정된다. 대표적인 요인으로는 조명, 표정, 각도, 피부색 등이 있다. 이러한..

AI/DL 2025.02.05

4th course: Object detection (C4W3L01 ~ C4W3L10)

C4W3L01 Object Localization최근 컴퓨터 비전 분야에서는 단순한 이미지 분류를 넘어, 이미지 내 물체의 위치까지 정확히 파악하는 물체 감지(Object Detection) 기술이 큰 주목을 받고 있습니다. 이번 포스팅에서는 물체 감지의 핵심 개념인 로컬리제이션 분류(Localization Classification)와, 이를 구현하기 위한 신경망 설계의 기본 아이디어를 살펴보겠습니다.물체 감지와 로컬리제이션 분류란?일반적인 이미지 분류 문제에서는 신경망이 이미지를 보고 "이것은 자동차다"와 같이 한 가지 레이블을 예측한다. 그러나 물체 감지 문제에서는 단순히 무엇이 있는지를 분류하는 것을 넘어,물체의 존재 여부,물체의 종류 (예: 보행자, 자동차, 오토바이 등),그리고 물체의 위치를 ..

AI/DL 2025.02.03

4th course: Deep Convolutional models: case studies (C4W2L01 ~ C4W2L11)

C4W2L01 Why look at case studies?이번 영상에서는 지금까지 배운 합성곱 층, 풀링 층, 완전 연결 층을 어떻게 조합하여 효과적인 합성곱 신경망을 만들 수 있는지 다양한 사례를 통해 알아봅니다.주요 모델 소개LeNet-5: 초기의 대표적인 CNN 모델로, 손글씨 숫자 인식에 사용되었다.AlexNet: ImageNet 대회에서 우승하며 큰 주목을 받은 모델로, 깊은 신경망의 가능성을 보여주었다.VGG: AlexNet을 발전시킨 모델로, 더 깊고 정교한 구조를 가지고 있다.ResNet: 매우 깊은 신경망에서 발생하는 그래디언트 소실 문제를 해결하기 위해 residual connection을 도입한 모델이다.Inception: 다양한 크기의 필터를 사용하여 특징을 추출하는 Incepti..

AI/DL 2025.02.02

4th course: Foundations of Convolutional Neural Networks (C4W1L01 ~ C4W1L11)

C4W1L01 Computer Vision딥러닝 시대를 이끄는 컴퓨터 비전이 강의는 딥러닝 시대에 빠르게 발전하고 있는 컴퓨터 비전 분야의 핵심 기술인 합성곱 신경망에 대한 소개로 시작한다. 컴퓨터 비전은 자율주행 자동차, 얼굴 인식, 이미지 검색 등 우리 삶의 다양한 영역에서 활용되고 있으며, 딥러닝 기술의 발전으로 더욱 정교하고 다양한 기능을 구현할 수 있게 되었다.컴퓨터 비전의 중요성과 합성곱 신경망의 등장강의에서는 컴퓨터 비전이 중요한 이유로 다음 두 가지를 제시한다.새로운 애플리케이션의 탄생: 컴퓨터 비전의 발전은 자율주행, 얼굴 인식, 스타일 변환 등 몇 년 전에는 상상하기 어려웠던 새로운 애플리케이션을 가능하게 만들었다.다른 분야에 대한 영향: 컴퓨터 비전에서 개발된 기술들은 음성 인식 등 ..

AI/DL 2025.02.02

2nd course: Hyperparameter Tuning, Batch Normalization and Programming Frameworks (C2W3L01 ~ C2W3L10)

Tuning Process (C2W3L01)딥러닝 모델을 학습시키는 과정에서 가장 어려운 부분 중 하나는 하이퍼파라미터 튜닝입니다. 학습률, 모멘텀, 은닉층의 개수 등 다양한 하이퍼파라미터 값에 따라 모델 성능이 크게 달라지기 때문입니다. 이번 글에서는 딥러닝 모델의 성능을 최대한 끌어올리기 위한 효과적인 하이퍼파라미터 튜닝 방법에 대해 알아보겠습니다.하이퍼파라미터란 무엇일까?하이퍼파라미터는 모델 학습 과정에서 직접적으로 학습되지 않고, 사용자가 직접 설정해야 하는 값이다. 대표적인 하이퍼파라미터로는 다음과 같은 것들이 있다.학습률(Learning rate) : 모델이 학습하는 속도를 조절하는 값모멘텀(Momentum) : 경사 하강법의 수렴 속도를 높이는 데 사용되는 값미니배치 크기 : 한 번에 학습하..

AI/DL 2025.02.01

2nd course: Optimization algorithms (C2W2L01 ~ C2W2L09)

Mini Batch Gradient Descent (C2W2L01)신경망 훈련은 많은 실험과 반복을 거쳐야 하는 과정이므로, 모델을 빠르게 훈련시키는 것이 매우 중요하다. 특히 딥러닝이 빅데이터에서 뛰어난 성능을 보이는 만큼, 대규모 데이터셋에서의 훈련은 종종 느리고 비효율적인 과정이 될 수 있다. 미니배치 경사 하강법(Mini-batch Gradient Descent)은 이러한 문제를 해결하고 훈련 속도를 향상시키는 데 효과적인 방법이다.배치 경사 하강법미니 배치 경사하강법을 알기 전에 배치 경사하강법에 대해 간단하게 알고 가는 것일 좋을 것 같다.배치 경사 하강법은 전체 훈련 데이터셋을 한 번에 사용하여 경사 하강법을 수행하는 방식이다. 즉, 모든 데이터를 처리한 후 가중치를 업데이트한다.전체 데이터..

AI/DL 2025.01.30

2nd course: Practiccal aspectes of Deep Learning (C2W1L10 ~ C2W1L14)

Vanishing/Exploding Gradients (C2W1L10)딥러닝 모델, 특히 심층 신경망(Deep Neural Network)을 훈련하는 과정에서 경사 소실(Vanishing Gradient) 및 경사 폭발(Exploding Gradient) 문제는 흔히 발생한다. 이 두 가지 문제는 모델의 깊이가 깊어질수록 더욱 심각해지며, 훈련을 어렵게 만드는 주요 요인으로 작용한다.경사 소실 및 폭발 문제란 무엇인가?경사 소실 및 폭발 문제는 역전파(Backpropagation) 과정에서 계산되는 미분값, 즉 기울기가 너무 작아지거나 너무 커지는 현상을 의미한다. 경사 소실: 기울기가 너무 작아지면 가중치 업데이트가 제대로 이루어지지 않아 학습이 매우 느려지거나 멈춰버리는 문제가 발생한다.경사 폭발: ..

AI/DL 2025.01.30

Normalizing Inputs (C2W1L09)

신경망을 훈련할 때 학습 속도를 높이는 방법 중 하나는 입력 데이터를 정규화(Normalization)하는 것이다. 이번 글에서는 입력 정규화의 개념과 이를 통해 얻을 수 있는 이점에 대해 살펴보자.NormalizationNormalization은 훈련 데이터를 특정한 분포로 변환하는 과정이다. 일반적으로 평균을 0으로 설정하고, 분산을 1로 맞추는 방식을 사용한다. 이를 통해 데이터가 일관된 범위를 갖도록 조정할 수 있다.정규화 과정입력 정규화, 즉 Normalization은 일반적으로 두 단계를 거쳐 이루어진다.평균 제거훈련 데이터셋의 각 특성별 평균을 계산하고, 각 데이터 포인트에서 해당 평균값을 빼준다. 이를 통해 모든 특성의 평균을 0으로 맞춘다.$$ \mu = \frac{1}{m} \sum_{..

AI/DL 2025.01.30

Other Regularization Methods (C2W1L08)

이번 강의에서는 L2 정규화와 드롭아웃 정규화와 더불어 신경망의 과대적합을 줄이는 다른 기법들을 알아본다.Data augmentation첫 번째 방법은 더 많은 데이터를 추가하는 것이다. 많은 데이터가 과대적합을 해결하는데 도움을 줄 수 있지만 많은 비용이 들어가거나 불가능한 경우가 있다. 그러면 수평 방향으로 뒤집은 이미지를 훈련 세트에 추가시켜 데이터를 늘리는 방법도 있다. 그러나 새로운 고양이 사진을 더 많이 구하지 않고 할 수 있는 방법이지만 새로운 m개의 독립적인 샘플을 얻는 것보다 이 방법은 중복된 샘플들이 많아져 좋지 않다. 이 방법 외에도 무작위로 이미지를 편집해 새로운 샘플을 얻을 수도 있다. 이런 추가적인 가짜 이미지들은 완전히 새로운 독립적인 고양이 샘플을 얻는것보다 더 많은 정보를 ..

AI/DL 2025.01.28