비디오: [성균관대학교] "자율주행을 위한 머신러닝 (이지형 교수)" 맛보기 강의 2024
기계 학습 부분 인형 치트 시트 < 기계 학습은 여러 가지 알고리즘을 사용합니다. 이 표는 다양한 알고리즘의 강점과 약점을 간단하게 요약합니다.
알고리즘 장점 장점 임의의 숲
거의 모든 기계 학습 문제에서 적합 | 생물 정보학 | 병렬로 작업 가능 | 드물게 |
> 누락 된 값을 자동으로 처리합니다. | 변수를 변환 할 필요가 없습니다.
매개 변수를 조정할 필요가 없습니다. |
우수한 결과를 가진 거의 모든 사람이 사용할 수 있습니다.
해석하기 어려움 값을 추정 할 때 회귀가 약합니다. 응답 값 분포의 극단 더 빈번한 클래스로의 다 중 클래스 문제에 편향 그라데이션 부스팅 거의 모든 기계 학습 문제에 적합 |
검색 엔진 (순위를 매기는 문제 해결) > 대부분의 비선형 함수를 근사 할 수 있습니다.
클래스 예측기에서 가장 우수한 결과를 얻을 수 있습니다. 누락 된 값을 자동으로 처리합니다. |
변수를 변환 할 필요가 없습니다. | 너무 많은 반복을 실행하면 초과 적합 할 수 있습니다.
이상치 |
파라미터 튜닝 없이는 제대로 작동하지 않습니다
선형 회귀 분석 기본 예측 계량 경제학 예측 마케팅 응답 모델링 |
이해하기 쉽고 설명하기
거의 적합하지 않음 L1 및 L2 정규화를 사용하여 기능 선택에 효과적 |
빠른 학습 | 확률론적인 버전 덕분에 큰 데이터를 훈련하십시오.
비선형 함수에 맞도록 열심히 노력해야합니다. 이상 치를 겪을 수 있습니다. |
지원 벡터 기계
문자 인식 이미지 인식 텍스트 복잡한 비선형 함수를 근사 할 수있다. |
비선형 커널을 적용 할 때 해석하기가 어렵다.
너무 많은 예제를 겪고, 10 000 예제 후에는 훈련하기에는 너무 오래 걸리기 시작한다. |
K-nearest Neighbors | 컴퓨터 비전
Multilabel tagging 추천 시스템 |
맞춤법 검사 문제
빠르고 게으른 교육 |
텍스트에 태그 붙이기와 같은 극단적 인 멀티 클래스 문제를 자연스럽게 처리 할 수 있음
예측 단계에서 성가시다. |
corr 예측 실패 얼굴 검출 | 누락 된 값을 자동으로 처리합니다.
변수를 변환 할 필요가 없습니다. 쉽게 맞추지 않습니다. |
조정할 매개 변수가 거의 없습니다. > 많은 다른 약자를 활용할 수 있습니다.
잡음이있는 데이터 및 특이 치에 민감합니다. |
클래스 예측에서 최고는 아닙니다.
Naive Bayes |
얼굴 인식 | 감정 분석 | 스팸 탐지
텍스트 분류 쉽고 빠르게 구현할 수 있으며 메모리를 많이 차지하지 않아 온라인 학습에 사용할 수 있습니다. 이해하기 쉽습니다 사전 지식을 고려합니다 |
강력하고 비현실적인 기능 독립 가정 > 희소 발생을 예측하지 못함
관련없는 기능을 사용하지 못함 |
신경망 | 이미지 인식
언어 인식 및 번역 음성 인식 시각 인식 |
비선형 함수를 근사 할 수 있음
outliers에 강함 일부 예제 만 사용 가능합니다 (지원 벡터 설정하기가 매우 어렵다 |
너무 많은 매개 변수로 인해 조정하기가 어려우며 네트워크 아키텍처를 결정해야한다.
해석하기가 어렵다 쉽다 |
로지스틱 회귀 < 마케팅 응답 모델링 | 이해하기 쉽고 설명하기
거의 적합하지 않음 L1 및 L2 정규화를 사용하여 기능 선택에 효과적 이벤트 |
기차로 빠르게
확률 적 버전 덕분에 빅 데이터를 쉽게 훈련 비선형 함수에 맞게 만들기 위해 열심히 노력해야 함 |
이상 치를 겪을 수 있음
SVD 추천인 시스템 의미있는 방식으로 데이터를 재구성 할 수 있습니다. |
데이터가 특정 방식으로 재구성 된 이유를 이해하기 어렵습니다. | PCA
공선 성 제거 |
데이터 세트의 크기 축소
강력한 선형 가정을 함축합니다 (구성 요소는 기능의 가중치 합계 임) <99 클러스터를 찾는데 빠름 다차원의 특이점을 검출 할 수 있음 다중 공선 성을 앓고 있음 클러스터가 구형이며 다른 모양의 그룹을 감지 할 수 없음 |
불안정 솔루션, 초기화에 의존
|