목록Machine-Learning (6)
Allen's 데이터 맛집

"뛰어난 예측의 힘, XGBoost 분류 모델" 이번에는 머신러닝 분야에서 현재 굉장히 인기 있는 'XGBoost' 분류 모델에 대해 알아보겠습니다. XGBoost는 예측 성능을 극대화하고 과적합을 줄이는 데에 뛰어난 성능을 보이는 알고리즘입니다. XGBoost는 Gradient Boosting 알고리즘을 기반으로 한 앙상블 모델로, 여러 개의 결정 트리를 조합하여 예측을 수행합니다. 트리를 순차적으로 생성하면서, 이전 트리의 예측 오차를 보완하는 방식으로 학습됩니다. 이미지출처:https://m.blog.naver.com/winddori2002/221931868686?view=img_1 간단한 파이썬 코드 예제: from sklearn.datasets import load_iris from xgboos..

"데이터의 숲, Random Forest 분류 모델" 이번에는 머신러닝에서 널리 사용되는 'Random Forest(랜덤 포레스트)' 분류 모델에 대해 알아보겠습니다. 이 모델은 여러 개의 의사 결정 트리를 결합하여 예측하는 강력하고 안정적인 알고리즘입니다. Random Forest 분류 모델은 여러 개의 의사 결정 트리를 생성하고, 각 트리의 예측 결과를 투표하여 최종 결과를 결정하는 방식으로 작동합니다. 이로 인해 각 트리의 장점을 살리고, 과적합을 방지하며 예측의 정확도를 높일 수 있습니다. 이미지출처:https://medium.com/@roiyeho/random-forests-98892261dc49 간단한 파이썬 코드 예제: from sklearn.datasets import load_iris f..

"데이터의 미로, Decision Tree 분류 모델" 이번에는 데이터 분류에 활용되는 'Decision Tree(의사 결정 트리)' 분류 모델을 알아보겠습니다. 이 모델은 데이터의 규칙을 분석하여 예측을 수행하는 직관적이고 강력한 도구입니다. Decision Tree 분류 모델은 데이터를 분기점과 결정 영역으로 나누어 가며 예측을 수행합니다. 각 분기점은 특정 특성의 값에 따라 데이터를 서로 다른 클래스로 할당하게 됩니다. 이미지출처:https://dlsdn73.tistory.com/655 간단한 파이썬 코드 예제: from sklearn.datasets import load_iris from sklearn.tree import DecisionTreeClassifier from sklearn.model..

"주변의 친구를 물어보다, K-Nearest Neighbors 분류 모델" 이번에는 데이터 분류에 사용되는 머신러닝 알고리즘 중 하나인 'K-Nearest Neighbors(KNN)' 분류 모델에 대해 알아보려 합니다. 이 모델은 주변 데이터의 클래스를 참고하여 예측하는 간단하면서도 강력한 방법입니다. 이미지 출처 : https://bkshin.tistory.com/entry/%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-6-K-%EC%B5%9C%EA%B7%BC%EC%A0%91%EC%9D%B4%EC%9B%83KNN KNN 분류 모델은 주어진 데이터 포인트 주변의 k개의 이웃 데이터를 참고하여 예측을 수행합니다. 이웃 데이터 포인트들의 클래스 중 가장 많은 클래스를 현재 데이터 포인트의..