P:
Zašto je odabir značajki toliko bitan u strojnom učenju?
A:Odabir značajki izuzetno je važan za strojno učenje prvenstveno jer služi kao temeljna tehnika usmjeravanja korištenja varijabli na ono što je najučinkovitije i najučinkovitije za određeni sustav strojnog učenja.
Stručnjaci razgovaraju o tome kako odabir značajki i ekstrakcija značajki djeluju na najmanju moguću mjeru prokletstva ili pomažu u rješavanju prekomjernog uklapanja - to su različiti načini za rješavanje ideje prekomjerno složenog modeliranja.
Besplatno preuzimanje: Strojno učenje i zašto je to važno |
Drugi način da to kažemo jest da odabir značajki pruža programerima alat da koriste samo najrelevantnije i najkorisnije podatke u setovima za strojno učenje, što drastično smanjuje troškove i količinu podataka.
Jedan primjer je ideja mjerenja složenog oblika u skali. Kako program mjeri, on identificira veći broj podatkovnih točaka i sustav postaje mnogo složeniji. Ali složen oblik nije tipičan skup podataka koji koristi sustav strojnog učenja. Ovi sustavi mogu koristiti skupove podataka koji imaju jako različite razlike u razlikama između različitih varijabli. Na primjer, inženjeri u razvrstavanju vrsta mogu pomoću selekcije značajki proučavati samo one varijable koje će im dati najviše ciljane rezultate. Ako svaka životinja u grafikonu ima isti broj očiju ili nogu, ti se podaci mogu ukloniti ili se mogu izdvojiti druge relevantnije podatkovne točke.
Odabir značajki je diskriminirajući postupak kojim inženjeri usmjeravaju sustave strojnog učenja prema cilju. Uz ideju uklanjanja složenosti sa sustava na skali, odabir značajki može biti koristan i za optimizaciju aspekata onoga što stručnjaci nazivaju "kompromisom varijance pristranosti" u strojnom učenju.
Razlozi zašto odabir značajki pomaže u pristranosti i analizi varijance su složeniji. Studija sa Sveučilišta Cornell o odabiru značajki, varijanci pristranosti i pakiranju služi kako bi se ilustriralo kako selekcija značajki pomaže projektima.
Prema autorima, rad "ispituje mehanizam pomoću kojeg izbor mogućnosti poboljšava točnost učenja pod nadzorom."
Studija dalje navodi:
Empirijska analiza pristranosti / varijance u tijeku odabira značajki ukazuje da najtačniji skup značajki odgovara najboljoj točki odstupanja odstupanja za algoritam učenja.
U raspravi o upotrebi jake ili slabe važnosti, pisci govore o odabiru značajki kao "metodi za smanjenje varijance" - to ima smisla kada varijantu smatrate kao količinom varijacije u određenoj varijabli. Ako nema varijance, podatkovna točka ili niz mogu biti u biti beskorisni. Ako je iznimno velika varijanca, to se može pretvoriti u ono što inženjeri mogu smatrati "bukom" ili irelevantnim, proizvoljnim rezultatima, kojima je sistem strojnog učenja teško upravljati.
U svjetlu toga, odabir značajki je temeljni dio dizajna u strojnom učenju.