Hoon's Dev Blog
  • 홈
  • 태그
  • 방명록
  • 메뉴 닫기
  • 글작성
  • 방명록
  • 환경설정
    • 분류 전체보기 (103)
      • Python (44)
      • 일상 (0)
      • MYSQL (10)
      • 프로젝트 (4)
      • DeepLearning (20)
      • OpenCV (25)
  • 홈
  • 태그
  • 방명록
DeepLearning

DeepLearning - 인공 신경망 모델,weights 저장하기

model = Sequenital() model.evaluate(X_test,y_test,batch_size=32 ) # 학습한 모델의 정확도 평가 model.predict(X_input, batch_size=32) #임의의 입력에 대한 모델의 출력값 확인 #신경망 모델을 hd5 파일에 저장 model.save("model_name.h5") from tensorflow.keras.models import load_model model = load_model('model_name.h5') # 저장한 hd5 신경망 모델 불러오기 #보통은 제일 핵심은 Weights이기 때문에 load_weights 사용한다 . model.save_weights('model_weights.h5') model = load_wei..

2022. 10. 28. 16:35
DeepLearning

DeepLearning - XOR문제 Greedy Layer-wise 트레이닝으로 풀기

''''''XOR문제 GREEDY Layer-wise 트레이닝으로 풀기''' xor = {'x1':[0,0,1,1], 'x2':[0,1,0,1], 'y':[0,1,1,0]} XOR = pd.DataFrame(xor) X = XOR.drop('y', axis=1) y = XOR.y model = Sequential() model.add(Dense(2, input_dim=2, activation='elu')) model.add(Dense(1, activation='linear')) fore_weights = model.get_weights() fore12 = Sequential() fore12.add(Dense(2, input_dim=2, activation='elu')) z_pred = fore12.pre..

2022. 10. 28. 15:49
DeepLearning

DeepLearning - GREEDY LAYER-WISE Training

말로 들었을때 이해가 잘 안가서 print 찍어보면서 한줄 한줄 해석했다. 첫번째 레이어에서 학습한 fore_weight 를 뽑는다, 그후 두번째 레이어에서 Back_weight 값을fore_weight값과 동일하게 변경한다. 그리고, 변경된 back_weight값=fore_weight 을 이용해 역전파 학습을 시킨다. 나온 W값을 back_weight2에 저장한다. 그리고 첫번째 fore_weight1을 가져온후, back_weight2 값으로 저장한다(fore_weight2) 그 값을, 다시 순정파 학습을 시켜서 x 예측값을 얻는다. '''실습 ''' xor = {'x1':[0,0,1,1], 'x2':[0,1,0,1], 'y':[0,1,1,1]} XOR = pd.DataFrame(xor) X = XO..

2022. 10. 28. 12:10
DeepLearning

DeepLearning -레이어 , 활성화 함수

우리는 흔히 머신러닝이라고 하면 위와 같은 그림을 자주 볼 수 있을 것이다. 어떻게 학습을 하고 이를 반영할 지에 대한 설계가 이루어져야 하는데 그것이 레이어 층을 쌓는 것이며, 그 중 하나의 기본 레이어는 Dense layer 이다. Dense Layer? Dense Layer의 각 뉴런이 이전 계층의 모든 뉴런으로부터 입력을 받게 된다. (거의 맨 마지막 레이어) Dense Layer는 추출된 정보들을 하나의 레이어로 모으고, 우리가 원하는 차원으로 축소시켜서 표현하기 위한 레이어 이다. 보통 맨 마지막 레이어로 분류기의 경우 softmax를 사용하는데, softmax의 인풋으로 들어가는 inputlayer로 자주 사용e된다. 첫번째 인자 8은 출력 뉴런의 수를 말하고, input_dim은 입력 뉴런..

2022. 10. 27. 14:35
DeepLearning

DeepLearning - 타이타닉 생존자 예측

'''타이타닉셋을 가져와서, 딥러닝으로 Survived 예측하기''' md = keras.Sequential() md.add(Dense(64, activation="sigmoid")) md.add(Dense(32, activation="sigmoid")) md.add(Dense(1, activation="sigmoid")) # 컴파일 md.compile(optimizer='adam', loss='binary_crossentropy', metrics=['binary_accuracy']) md.fit(X_train,y_train,epochs=5000) kg_up = df_kg.copy() pred_ = md.predict(df_kg).reshape(df_kg.shape[0]) pred_ = np.where(..

2022. 10. 26. 16:27
DeepLearning

DeepLearning - 입문 (손실함수,배치,옵티마이저)

1. 손실 함수(Loss function) -> 손실 함수는 실제값과 예측값의 차이를 수치화해주는 함수 이 두 값의 차이. 즉, 오차가 클 수록 손실 함수의 값은 크고 오차가 작을 수록 손실 함수의 값은 작아진다. 회귀에서는 평균 제곱 오차, 분류 문제에서는 크로스 엔트로피를 주로 손실 함수로 사용한다. [손실 함수의 값을 최소화]하는 두 개의 매개변수인 가중치 w와 편향 (bias) 의 값을 찾는 것이 딥 러닝의 학습 과정이므로 손실 함수의 선정은 매우 중요하다. 회귀에서 사용하는 MSE는 아래와 같다. 1) MSE(Mean Squared Error, MSE) = 평균 제곱 오차 # MSE (Mean Squarerd Error, MSE) 두개의 코드 이용 1) model.compile(optimizer..

2022. 10. 26. 15:38
  • «
  • 1
  • 2
  • 3
  • 4
  • »

공지사항

전체 카테고리

  • 분류 전체보기 (103)
    • Python (44)
    • 일상 (0)
    • MYSQL (10)
    • 프로젝트 (4)
    • DeepLearning (20)
    • OpenCV (25)
애드센스 광고 영역
  • 최근 글
  • 최근 댓글

최근 글

최근댓글

태그

  • #야후파이낸스api
  • #레이어
  • #한국주식
  • #모델검증
  • #GridSearch
  • #주가예측
  • #타이타닉
  • #주식예측
  • #mysql8.0
  • #python
  • #while#무한루프#파이썬#반복문
  • #활성화함수
  • #삼성전자
  • #문자열 포맷
  • #하이퍼파라미터
  • #PROPHET
  • #파이썬
  • #하이퍼파라미터튜닝
  • #삼성주가예측
  • #랜덤포레스트
  • #mysql
MORE

전체 방문자

오늘
어제
전체

블로그 인기글

Powered by Privatenote Copyright © Hoon's Dev Blog All rights reserved. TistoryWhaleSkin3.4

티스토리툴바