📌Hyperparameter란?

Hyperparameter Tuning 세 가지 요소🥰

  1. Objective Function : 최대화(점수)하거나 최소화(Loss, Cost)해야 하는 값
  2. Search Boundary : 탐색 범위 설정
  3. Step : 탐색 시 간격

img [Image Source: Bergstra, J., Bengio, Y.: Random search for hyper-parameter optimization. Journal of Machine Learning Research 13, 281–305 (2012)]

📌GridSearch

img

when coding…

parameters

✒gs = GridSearchCV(~)인스턴스 선언 시

📌Randomsearch

img

when coding…

parameters(gridsearch와 겹치는 paramter 생략)

🤡GridSearch 와 RandomSearch 를 구현한 결과는 여기를 클릭하시면 확인할 수 있습니다.

📌Bayesian Optimization

Bayesian Optimization은…

  1. “Gausain Process”라는 통계학을 기반으로 만들어진 모델로,
  2. 여러개의 하이퍼 파라미터들에 대해서,
  3. “Aqusition Fucntion”을 적용했을 때,
  4. “가장 큰 값”이 나올 확률이 높은 지점을 찾아냅니다.

목적함수의 ‘형태’를 학습

  1. Prior Distribution에 기반하여 하나의 탐색 함수 가정
  2. Exploartion : 매번 새로운 Sampling을 사용해 목적함수를 Test할 시, 해당 정보를 사용하여 새로운 목적함수의 Prior Distribution을 update
  3. Exploitation : Posterior distribution에 의해 얻은 global minimum이 나타날 가능성이 높은 위치에서 알고리즘을 테스트합니다.

주의할 점🤡

Source : https://velog.io/@crosstar1228/MLHyperparameter-tuning-%EA%B8%B0%EB%B2%95%EC%9D%98-3%EA%B0%80%EC%A7%80GridSearch-RandomSearch-Bayesian-Optimization