Video: The astounding athletic power of quadcopters | Raffaello D'Andrea 2025
O parte din Machine Learning For Dummies Cheat Sheet < Învățarea în mașină presupune utilizarea a numeroși algoritmi diferiți. Acest tabel vă oferă un scurt rezumat al punctelor forte și a punctelor slabe ale diferitelor algoritmi.
Algoritmul
Cel mai bun la | Pro | Contra | Păcură aleatoare |
Apt la aproape orice problemă de învățare a mașinii | Bioinformatică
> Se manipulează automat valorile lipsă |
Nu este nevoie să se transforme vreo variabilă
Nu este nevoie să se ajusteze parametrii Poate fi utilizat de aproape oricine cu rezultate excelente Dificil să interpreteze extremitățile distribuirii valorilor răspunsului Biased în problemele multiclass spre clase mai frecvente |
Gradient Boosting
Apt la aproape orice problemă de învățare a mașinii Motoarele de căutare (rezolvarea problemei învățării la rang) > Poate aproxima majoritatea funcțiilor neliniare |
Cel mai bun predictor de clasă | Se ocupă automat de valori lipsă
Nu este necesară transformarea varianței |
Se poate depăși dacă se execută prea multe iterații
outliers nu funcționează bine fără reglarea parametrilor regresia liniară |
predicție de bază
Predicțiile econometrice Răspunsurile de marketing ale modelării |
Simplu de înțeles și explicat | Rareori depășesc
Utilizarea L1 & L2 este eficientă în selectarea caracteristicilor trenuri pe date mari datorită versiunii sale stochastice |
Trebuie să lucrați din greu pentru a face să se potrivească funcțiilor neliniare
Pot suferi de valori extreme Mașini vectoriale de suport Recunoașterea caracterului Recunoașterea imaginii |
Text clasificarea
Crearea caracteristicilor neliniare automate |
Poate aproxima funcțiile neliniare complexe | Dificil de interpretat atunci când se aplică sunete neliniare
Suferă din prea multe exemple, după 10 000 de exemple, K-cea mai apropiată Vecinătăți Vizibilitate la computer |
Etichetarea Multilabel
Sisteme de recomandare |
Probleme de verificare a ortografiei
și greoaie în faza de predicție |
Nu poate să prezică corr Efectuată prin blestemul dimensiunilor | Adaboost
Detectarea feței Manevrează automat valori lipsă Nu este nevoie să transformați varianta |
Nu depășește cu ușurință
> Poate beneficia de numeroase studenți slabi |
Sensibil la date zgomotoase și valori extreme
Niciodată cele mai bune predicții din clasă |
Naive Bayes | Recunoașterea feței | Analiza sentimentului
Clasificarea textului Ușor și rapid de implementat, nu necesită prea multă memorie și poate fi folosit pentru învățarea online Ușor de înțeles Luarea în considerare a cunoștințelor anterioare |
Ipoteze puternice și nerealiste ale independenței caracteristicilor > Recunoașterea imaginilor
Recunoașterea imaginilor |
Recunoașterea imaginilor | Recunoașterea limbajului
Poate aproxima orice funcție neliniară Robust la valori extreme Funcționează numai cu o parte din exemple (vectorul de suport s) |
Foarte greu de configurat
Dificil de reglat din cauza prea multor parametri și trebuie să decideți și arhitectura rețelei Dificil să interpretezi |
Comandarea rezultatelor după probabilitate
Răspunsuri de marketing în modelare Simplu de înțeles și explicat |
Rareori depășește | Folosirea regularizării L1 & L2 este eficientă în selectarea caracteristicilor
Cel mai bun algoritm pentru predicția probabilităților Rapid la tren Ușor de antrenat pe date mari mulțumită versiunii stochastice |
Trebuie să lucreze din greu pentru a se potrivi funcțiilor neliniare
Pot suferi de valori SVD |
Se poate restructura datele într-un mod semnificativ Este dificil de înțeles de ce datele au fost restructurate într-un anumit mod PCA |
Eliminarea colinearității | Reducerea dimensiunilor setului de date | implică ipoteze puternice lineare (componentele sunt o sumă ponderată a caracteristicilor) K-înseamnă
Segmentare Rapidă în găsirea de clustere Se pot detecta valori exagerate în mai multe dimensiuni Suferă de multicoliniaritate Clusterele sunt sferice, soluții, depinde de inițializare |
|