본문 바로가기

로봇/인공지능, AI12

[핸즈온 머신러닝 3판] 9.비지도 학습 (군집만) 1부 9장9.비지도 학습9.1 군집9.2 가우스 혼합우와 2개밖에 없다 그 중에 한개만 한다.. 야호!! https://colab.research.google.com/github/rickiepark/handson-ml3/blob/main/09_unsupervised_learning.ipynb 09_unsupervised_learning.ipynbRun, share, and edit Python notebookscolab.research.google.com 오늘날 대부분 사용할 수 있는 데이터는 레이블이 없다. (정답이 있으면 정말 좋았겠지만..) 따라서 비지도 학습이 필요하다. 8장에서 가장 널리 사용되는 비지도 학습인 차원 축소를 살펴봤었다. (차원 축소 비지도 학습이었어?) 이제 군집, 이상치 탐지,.. 2024. 11. 24.
[핸즈온 머신러닝 3판] 8.차원 축소 1부 8장8.차원 축소8.1 차원의 저주8.2 차원 축소를 위한 접근법8.3 주성분 분석 8.4 랜덤 투영8.5 지역 선형 임베딩8.6 다른 차원 축소 기법차원 축소..라 시간여행이 이제 가능해지는건가 뭔가 호기심이 생기네요시간 축소도 있으면 좋겠다. Anyway Let's go! https://colab.research.google.com/github/rickiepark/handson-ml3/blob/main/08_dimensionality_reduction.ipynb#scrollTo=QVtMHLlAZPsZ 8.1 차원의 저주우리는 3차원 세계에 익숙하며 고차원 공간을 직관적으로 상상하기 어렵다. 사실 4차원도 뭔지 모름.... 음... 고차원 초입방체에서는 경계에 가까운 점의 비율이 매우 높아지는데,.. 2024. 11. 17.
[핸즈온 머신러닝 3판] 7.앙상블 학습과 랜덤 포레스트 1부 7장 7장 앙상블 학습과 랜덤 포레스트7.1 투표 기반 분류기 7.2 배깅과 페이스팅7.3 랜덤 패치와 랜덤 서브스페이스7.4 랜덤 포레스트7.5 부스팅7.6 스태킹뭔지 모르고 썼지만 성능이 좋았던 앙상블 기법... 오늘 한번 자세히 알아보도록 하자!!! 일단 먼저 앙상블 학습이 뭔지부터 알아야겠지? 앙상블 학습이란 여러 개의 예측 모델(예: 회귀, 분류 모델)을 결합하여 더 나은 결과를 얻는 기법으로, 다양한 알고리즘을 결합하여 사용하는 방식을 의미한다.또한 오늘 중요하게 다룰 랜덤 포레스트는 이름에서 알 수 있겠지만앙상블 학습 방법의 일종으로, 여러 개의 결정 트리를 사용하여 예측을 수행하며, 개별 트리의 예측을 결합하여 최종 예측을 만드는 것으로, 랜덤 포레스트는 오늘날 강력한 머신러닝 알고리.. 2024. 11. 9.
[핸즈온 머신러닝 3판] 5.서포트 벡터 머신 1부 6장오늘 정리할 부분은 다목적 머신러닝 모델 SVM이다. 5장 서포트 벡터 머신5.1 선형 SVM 분류5.2 비선형 SVM 분류5.3 SVM 회귀5.4 SVM 이론5.5 쌍대 문제무섭다 이름부터https://colab.research.google.com/github/rickiepark/handson-ml3/blob/main/05_support_vector_machines.ipynb 05_support_vector_machines.ipynbRun, share, and edit Python notebookscolab.research.google.com 오늘부터 코드 적는건 자제 해야겠다.. 시간도 오래걸리고 가독성도 좀 떨어지는듯,,5.1 선형 SVM 분류 위의 그림을 확인해 보자, 그러면 확인할 수 .. 2024. 11. 3.
[핸즈온 머신러닝 3판] 6.결정 트리 1부 6장아싸 중간고사가 끝났다. 끝나서 기분은 좋았지만 점수가 슬프네... 오늘 정리할 부분은 분류와 회귀 작업 그리고 디중 출력 작업까지 기능한 다목적 머신러닝 결정 트리에 관해서 입니다! 왜 5장이 아니고 6장을 하는가..? -> 6장이 짧아서...6장 모델 훈련6장 결정트리 6.1 결정 트리 학습과 시각화 6.2 예측 6.3 클래스 확률 추정6.4 CART 훈련 알고리즘6.5 계산 복잡도6.6 지니 불순도 또는 엔트로피?6.7 규제 매개변수6.8 회귀6.9 축 방향에 대한 민감성6.10 결정 트리의 분산 문제 뭔가 많아 보이지만 조금씩이라 생각보다 양은 많지 않다.  2징에서 캘리포니아 주택 가격 데이터셋을 완벽하게 맞추는 DecisionTreeRegressor 모델을 사용 했었는데 뭔가 살짝 기.. 2024. 10. 26.
Gymnasium을 사용한 Double-inverted-pendulum https://gymnasium.farama.org/environments/mujoco/inverted_double_pendulum/ Gymnasium DocumentationA standard API for reinforcement learning and a diverse set of reference environments (formerly Gym)gymnasium.farama.org https://github.com/Heuisub/RL-Double-inverted-pendulum/tree/main GitHub - Heuisub/RL-Double-inverted-pendulumContribute to Heuisub/RL-Double-inverted-pendulum development by creat.. 2024. 10. 12.
[핸즈온 머신러닝 3판] 4.모델 훈련 1부 4장오늘 정리할 부분은 4장 모델 훈련이다. 선형회귀와 경사 하강법, 다항 회귀, 과적합 감지 및 규제 기법과 로지스틱 회귀, 소프트맥스 회귀를 살펴본다고 한다. 회귀회귀회귀회귀4장 모델 훈련4.1 선형 회귀4.2 경사 하강법4.3 다항 회귀4.4 학습 곡선4.5 규제가 있는 선형 모델4.6 로지스틱 회귀4.1 선형 회귀 1장에서 삶의 만족도에 대한 선형 회귀 모델을 만들었었다. 기억 하나..? (나는 잘 기억이..)$삶의 만족도 = \theta_0 + \theta_1 \times 1인당\_GDP$ 여기서 $\theta_0$ 과 $\theta_1$은 모델 파라미터이고 독립변수(입력 특성)로 1인당 GDP를 사용한다. 일반적으로 선형 모델은 아래와 같이 입력 특성의 가중치 합과 bias를 더해서 예측.. 2024. 9. 28.
[핸즈온 머신러닝 3판] 3.분류 1부 3장오늘 정리할 부분은 3장 분류부분이다. 2장에서 머신러닝을 어떻게 하는지 간단하게 배웠으므로 오늘부터는 실전!!3장 분류3.1 MNIST.3.2 이진 분류기 훈련3.3 성능 측정3.4 다중 분류3.5 오류 분석3.6 다중 레이블 분류3.7 다중 출력 분류3.1 MNIST이번 장에서는 고등학생과 미국 인구 조사국 직원들이 손으로 쓴 70000개의 작은 숫자 이미지인 MNIST 데이터를 사용한다. (매우 유명한 데이터셋이다.) 아래와 같은 코드를 통해 OpenML.org에서 MNIST 데이터를 불러올 수 있다.from sklearn.datasets import fetch_openml# 사이킷런 1.2에서 추가된 parser 매개변수 기본값이 1.4 버전에서 'liac-arff'에서 'auto'로 바.. 2024. 9. 20.
[핸즈온 머신러닝 3판] 2.머신러닝 프로젝트 처음부터 끝까지 2.5~2.9 2.5 머신러닝 알고리즘을 위한 데이터 준비이제 머신러닝 알고리즘을 위한 데이터 준비를 할 차례이다. 예측 변수와 타깃값에 같은 변형을 적용하지 않기 위해 예측 변수와 레이블을 분리하고 시작하자!!housing = strat_train_set.drop("median_house_value", axis=1)housing_labels = strat_train_set["median_house_value"].copy()2.5.1 데이터 정제앞서 2.3.6에서 housing.info()로 데이터를 확인했을 때 total_bedrooms에 207개의 데이터가 빠져있었다. 대부분의 머신러닝 알고리즘은 누락된 특성을 다루지 못하므로 이를 처리를 해야하는데 어떻게 해야할까?크게 3가지로 나눌 수 있다!옵션 1: 결측값이 .. 2024. 9. 15.