일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 파이썬
- 디지털마케팅
- jupiternotebook
- 공공데이터
- 파이썬라이브러리
- 소셜이노베이션
- 파이썬기초
- 고용노동부
- 프로그래밍
- 데이터
- pythonlibrary
- 데이터분석
- 머신러닝
- 청년친화형
- 한국산업인력공단
- 파이썬타자게임
- python
- 유클리드소프트
- 웹크롤링
- ESG지원사업
- 주피터노트북
- ABC부트캠프
- 딥러닝
- 빅데이터
- JupyterNotebook
- Today
- Total
목록Programming (28)
TECH_LOG

ABC부트캠프_2023.04.13 Mnist 실습 Mnist 손글씨 데이터 28x28 흑백 이미지 from tensorflow.keras.datasets.mnist import load_data (train_x, train_y),(test_x,test_y) = load_data() train_x.shape,train_y.shape test_x.shape, test_y.shape >>> ((10000, 28, 28), (10000,)) from PIL import Image img = train_x[0] import matplotlib.pyplot as plt img1 = Image.fromarray(img,mode = "L") plt.imshow(img1) train_y[0] train_x1 = trai..

ABC부트캠프_2023.04.13 선형 분류 과정 [실습] iris_dataset을 이용한 선형 분류모델 만들기 import numpy as np from sklearn.datasets import load_iris X,y = load_iris(return_X_y = True) from sklearn.model_selection import train_test_split train_x, test_x, train_y, test_y, = train_test_split(X,y,test_size = 0.3, random_state=42, stratify=y) from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Den..

ABC부트캠프_2023.04.12 PART 2 딥러닝 흐름 잡기 딥러닝 과정 ● 머신러닝 과정 데이터 수집 과정 딥러닝 학습과정 문제 목적파악 → 데이터 설계 → 데이터 수집 → 문제분류 → 모델 설정 → 학습 → 검증 → 예측 데이터 설계 및 수집 CIFAR 10 데이터셋 문제 분류 - 분류 (Classification) - 회귀 (Regression) - Logistric Regression - Polynominal Regression( 다항식 회귀) 모델 선정 ● 가중치 𝒛 = 𝒂𝒙 + 𝒃𝒚 + 𝒄 𝐙 = 𝑾𝑿 + 𝒃 𝒙, 𝒚 입력 변수 𝐗 vector 𝒛 출력 변수 𝐙 vector 𝒂, 𝒃 Weight 가중치 𝑾 matrix 𝒄 Bias 편향 𝒃 vector ● 머신러닝 모델 : Decision ..

ABC부트캠프_2023.04.11 PART 1 인공지능이란 인공지능 - 주어진 데이터로 주어진 모델을 최적화하여 새로운 데이터에 대한 결과값을 예측하는 프로그램 학습의 종류 - 지도학습 - 비지도학습 - 강화학습 ● 지도학습(Supervised Learning) 데이터+레이블(Data, Label) → 학습(Learning) → 검증(Validation) → 예측(Prediction) : 데이터에 대한 label,target,정답이 주어진 상태에서 학습, 즉각적인 피드백, 최적화학습 - Regression: 예측 결과값이 continuous value _ XGBosst, Light GBM - Classification : 예측 결과값이 diiscrete value _ CNN, RNN ● 비지도학습(Uns..

ABC부트캠프_2023.04.11 SVM(kernelized Support Vector Machines) - 입력데이터에서 단순한 초평면으로 정의 되지 않는 더 복잡한 모델을 만들 수 있도록 확장한 지도학습모델 - 분류,회귀 모두 사용 가능 - 수학적으로 매우 복잡 from sklearn.datasets import make_blobs X,y = make_blobs(centers=4, random_state= 8) y = y % 2 mglearn.discrete_scatter(X[:,0], X[:,1], y) plt.xlabel("Feature 0") plt.ylabel("Feature 1") rom sklearn.svm import LinearSVC linear_svm = LinearSVC(max_it..

ABC부트캠프_2023.04.11 배깅(Bagging_Bootstrap aggregating) - 중복을 허용한 랜덤 샘플링으로 만든 훈련세트를 사용하여 분류기를 각기 다르게 학습시킴 [예제] 배깅을 사용하여 cancer 데이터셋에 로지스틱 회귀 모델 100개를 훈련한 앙상블 from sklearn.linear_model import LogisticRegression from sklearn.ensemble import BaggingClassifier bagging = BaggingClassifier(LogisticRegression(solver = 'liblinear'), n_estimators=100, oob_score=True, n_jobs= -1, random_state=42) # n_estimat..

ABC부트캠프_2023.04.11 앙상블 (Ensemble) _ Random Forest -여러 머신러닝 모델을 연결하여 더 강력한 모델을 만드는 기법 ● 가장 효과적인 앙상블 모델 2가지 1. 랜덤 포레스트(Random Forest) 결정트리 2. 그래디언트 부스팅 (Gradient Boosting) 결정트리 ○ 랜덤 포레스트 - 훈련 데이터에 과대적합되는 문제 회피가능 유의사항) - 다른 random_state를 지정하면 전혀 다른 모델이 생성됨, random_state를 미지정 했을 때도 마찬가지 - 트리가 많을 수록 random_state 값의 변화에 따른 변동이 적음, 많은 같은 결과를 만들어야 한다면 random_state 고정 - 텍스트 데이터와 같이 고차원 데이터, 희소한 데이터에는 비효율..

ABC부트캠프_2023.04.10 나이브 베이즈 분류기 - 축의 의미 x축(row) : axis 0 y축(column) : axis1 z축(depth) : axis 2 ● 나이브 베이즈 _ BernoulliNB : 짝수행, 홀수행의 1갯수를 카운트 해서 출력하는 예제 1의 갯수를 카운트하는 방법은 그냥 합을 구하는 것과 동일 %matplotlib inline import numpy as np import matplotlib.pyplot as plt import pandas as pd import mglearn X = np.array([[0,1,0,1], [1,0,1,1], [0,0,0,1], [1,0,1,0]]) Y = np. array([0,1,0,1]) counts = {} for label in n..