목록전체 글 (70)
AI 전문가가 되고싶은 사람

https://seungwoo0407.tistory.com/48 (공부용) ImageNet Classification with Deep Convolutional Neural Networkshttps://kmhana.tistory.com/3 딥러닝을 위한 논문 가이드☆딥러닝 공부를 위해서 꼭 읽어야 할 논문(사이트)들의 리스트를 정리해보고자한다. 순수히 개인적인 의견으로, 사용자의 관점에서 평가했다.seungwoo0407.tistory.com [1] ImageNet Classification with Deep Convolutional Neural Networks(AlexNet)https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a..

https://kmhana.tistory.com/3 딥러닝을 위한 논문 가이드☆딥러닝 공부를 위해서 꼭 읽어야 할 논문(사이트)들의 리스트를 정리해보고자한다. 순수히 개인적인 의견으로, 사용자의 관점에서 평가했다. 실제 AI 프로젝트를 진행할 때 도움이 되었던 논kmhana.tistory.com해당 블로그에 올라온 딥러닝 공부를 위해 꼭 읽어야 할 논문들의 리스트를 따라 공부하려고한다.먼저 CNN의 시작이라는 Alexnet 논문부터 읽고 정리해보겠다. 서론객체 인식의 성능을 개선하기 위해서는 더 많은 데이터를 수집하고 보다 강력한 모델을 학습시키며, 과적합을 방지하기 위한 더 나은 기술을 사용하는 것이 필요하다. 과거에는 라벨이 붙은 데이터셋이 수만개로 제한적이라서 간단한 인식 작업만이 수행 가능했다면,..
SHAP의 배경대규모 데이터의 활용과 함께 앙상블 모델 및 딥러닝 모델은 높은 예측 정확도를 달성하고 있습니다. 그러나 이러한 모델은 그 구조가 복잡하고 비선형적이기 때문에, 전문가도 모델의 예측 결과를 해석하기 어려운 경우가 많습니다. 이로인해 모델이 왜 정확도가 높은지, 즉 예측의 원인을 이해하는 데 어려움이 발생합니다. 이러한 문제는 모델의 신뢰성을 저하시킬 수 있고, 해석 가능성이 중요한 분야에서 큰 도전 과제가 됩니다. 다양한 해석 방법이 제안되었지만, 특정 상황에서 어떤 방법이 더 적합한지에 대한 기준이 부족합니다.이 문제를 해결하기 위해 개발된 방법이 바로 SHAP입니다. SHAP은 모델이 어떤 특성(feature)에 얼마나 의존해서 예측을 했는지를 정량적으로 보여줍니다. 이를 통해 각각의 ..

모든 경우에 뛰어난 성능을 낼 수 있는 분류 모델은 없기에 최소한 몇개의 학습 알고리즘 성능을 비교하고 문제에 최선인 모델을 선택하는 것이 권장된다. 특성이나 샘플의 개수, 데이터셋에 있는 잡음 데이터의 양과 클래스가 선형적으로 구분되는지 아닌지에 따라서도 다르다. * 사이킷런에서 제공하는 붓꽃 데이터셋을 사용 ( 시각화를 위해 두개의 특성만 사용 )from sklearn import datasetsimport numpy as npiris = datasets.load_iris()X = iris.data[:,[2:3]]y = iris.target● train_test_splitfrom sklearn.model_selection import train_test_splitX_train, X_test, y_tr..

25주차 회고 시작하겠습니다! 지금까지 해왔던 일들을 마무리하고 취업 지원 컨설팅을 받기 위해 자기소개서, 이력서와 같은 여러 항목들을 작성했습니다. 25주차 금요일에는 잡페어도 다녀왔네요! 한번 정리하듯이 글 써보겠습니다.1. 빅프로젝트 발표회 사전 점검 (월요일)아래와 같이 저희 조에 와서 구경하고 가라고 호객 행위를 하면서 다른 분들의 방문을 기다렸었습니다. 실제 발표회는 화요일이기 때문에 포스터, 발표 영상, 발표 자료에 문제가 없는지 확인하고 다른 조들은 어떤 걸 했나 보는 날로 인식하고 그렇게 행동하였습니다!이후에 밖에서 호객행위를 하니까 사람들이 많아 찾아와주셔서 아주 감사했습니다 ㅋㅋㅋㅋ 2. 빅프로젝트 발표회 ( 화요일 )15조 팀원분들과 노량진에 모여서 함께 빅프로젝트 발표회를 진행했었..

1-1 아달린 구현퍼셉트론 규칙과 아달린이 매우 비슷하기 때문에 앞서 정의한 퍼셉트론 구현에서 fit 메서드를 바꾸어 경사 하강법으로 손실 함수가 최소화되도록 가중치와 절편 업데이트한다.class AdalineGD: """적응형 선형 뉴런 분류기 매개변수 ------------ eta : float 학습률 (0.0과 1.0 사이) n_iter : int 훈련 데이터셋 반복 횟수 random_state : int 가중치 무작위 초기화를 위한 난수 생성기 시드 속성 ----------- w_ : 1d-array 학습된 가중치 b_ : 스칼라 학습된 절편 유닛 losses_ : list 각 에포크의..

아달린- 연속 함수로 손실 함수를 정의하고 최소화하는 핵심 개념을 보여준다.- 해당 개념은 로지스틱 회귀, 서포트 벡터 머신, 다층 신경망 같은 분류를 위한 다른 머신러닝 모델과 선형 회귀 모델 이해에 도움이 될 것이다.- 퍼셉트론과 가장 큰 차이점은 가중치를 업데이트하는 데 퍼셉트론처럼 단위 계단 함수 대신 선형 활성화 함수를 사용한다.- 아달린의 선형 함수는 단순한 항등 함수이다. 아달린 알고리즘은 진짜 클래스 레이블과 선형 활성화 함수의 실수 출력 값을 비교하여 모델의 오차를 계산하고 가중치를 업데이트한다. 반면 퍼셉트론은 진짜 클래스 레이블과 예측 클래스 레이블을 비교한다.1-1 경사 하강법으로 손실 함수 최소화- 지도 학습 알고리즘의 핵심 구성 요소 중 하나는 학습 과정 동안 최적화하기 위해 정..

2-1 객체 지향 퍼셉트론 API1. Perceptron 객체를 초기화한 후 fit 메서드로 데이터에서 학습하고, 별도의 predict 메서드로 예측을 만든다.2.사용 패키지3. 구현학습률 eta(n)와 에포크 횟수(훈련 데이터셋을 반복하는 횟수) n_iter로 새로운 Perceptron 객체를 초기화한다.import numpy as npclass Perceptron: def __init__(self, eta=0.01,n_iter=50, random_state=1): self.eta = eta self.n_iter = n_iter self.random_state = random_state# fit 메서드에서 절편 self.b_를 0으로 초기화하고 self.w_ ..