A gépi tanulás kontextusában a rendszeresítés fontos technika, amelyet a modellek általánosítási teljesítményének javítására használnak, különösen akkor, ha nagy dimenziós adatokkal vagy összetett modellekkel foglalkoznak, amelyek hajlamosak a túlillesztésre. A túlillesztés akkor következik be, amikor a modell nemcsak a betanítási adatok mögöttes mintázatait, hanem a zajt is megtanulja, ami a nem látott adatokon gyenge teljesítményt eredményez. A rendszeresítés további információkat vagy megszorításokat vezet be a modellbe, hogy megakadályozza a túlillesztést azáltal, hogy bünteti a túl bonyolult modelleket.
A legalizálás mögött meghúzódó alapötlet az, hogy a veszteségfüggvénybe beépítsünk egy büntetőtagot, amelyet a modell minimalizálni próbál. Ez a büntető kifejezés megakadályozza, hogy a modell beillessze a zajt a betanítási adatokba, mivel költséget ró a bonyolultságra, amelyet általában a modell paramétereinek nagyságával mérnek. Ezáltal a regularizáció segít egyensúlyt elérni a betanítási adatok megfelelő illesztése és a modell azon képessége között, hogy új adatokra általánosítson.
A gépi tanulásban általánosan használt rendszerezési technikáknak többféle típusa létezik, amelyek közül a legelterjedtebbek az L1 regularizáció, az L2 regularizáció és a lemorzsolódás. Ezen technikák mindegyikének megvannak a saját jellemzői és alkalmazásai.
1. L1 Regularizálás (Lasso regresszió): Az L1 regularizáció az együtthatók nagyságának abszolút értékével megegyező büntetést ad a veszteségfüggvényhez. Matematikailag a következőképpen ábrázolható:
ahol az eredeti veszteségfüggvény,
a regularizációs paraméter, és
a modell paraméterei. Az L1 regularizáció hatása az, hogy ritka modelleket hoz létre, ami azt jelenti, hogy az együtthatók egy részét nullára hajtja, hatékonyan végrehajtva a jellemzők kiválasztását. Ez különösen hasznos lehet nagy dimenziós adatok kezelésekor, ahol sok funkció nem releváns.
2. L2 Regularizálás (Ridge Regression): Az L2 regularizáció az együtthatók nagyságának négyzetével egyenlő büntetést ad a veszteségfüggvényhez. Matematikailag a következőképpen fejeződik ki:
Az L2-szabályozás elriasztja a nagy együtthatókat azáltal, hogy bünteti azok négyzetes értékét, ami egyenletesebb eloszlású súlykészlethez vezet. Az L1-től eltérően az L2-es regularizáció nem hoz létre ritka modelleket, mivel nem kényszeríti az együtthatókat pontosan nullára, hanem kicsiben tartja azokat. Ez különösen hasznos a túlillesztés elkerülésére, amikor minden funkciónak van jelentősége.
3. Rugalmas nettó szabályzás: Az Elastic Net kombinálja az L1 és L2 regularizációt. Különösen hasznos olyan helyzetekben, amikor több, egymással összefüggő funkció van. Az Elastic Net büntetés az L1 és L2 büntetés lineáris kombinációja:
A paraméterek hangolásával és a
, Az Elastic Net egyensúlyba tudja hozni az L1 és L2 regularizálás előnyeit.
4. Kidobni: A Dropout egy szabályosító technika, amelyet kifejezetten neurális hálózatokhoz terveztek. A képzés során a lemorzsolódás véletlenszerűen nullára állítja a réteg csomópontjainak (neuronjainak) egy részét minden iterációnál. Ez megakadályozza, hogy a hálózat túl erősen támaszkodjon egyetlen csomópontra, és arra ösztönzi a hálózatot, hogy robusztusabb funkciókat tanuljon meg. A lemorzsolódás különösen hatékony a mély tanulási modellekben, ahol a túlillesztés gyakori probléma a nagyszámú paraméter miatt.
5. Korai leállás: Noha nem a hagyományos értelemben vett szabályosítási technika, a korai leállítás egy stratégia a túlillesztés megelőzésére azáltal, hogy leállítja a képzési folyamatot, amint az érvényesítési készlet teljesítménye romlani kezd. Ez különösen hasznos az iteratív módszereknél, mint például a gradiens süllyedés, ahol a modell folyamatosan frissül.
A rendszerezés elengedhetetlen a gépi tanulásban, mert lehetővé teszi, hogy a modellek jól teljesítsenek a nem látható adatokon, azáltal, hogy szabályozzák azok összetettségét. A regularizációs technika megválasztása és paramétereinek hangolása ( L1 és L2 esetében a lemorzsolódás aránya a lemorzsolódáshoz) fontosak, és gyakran kísérletezést és keresztellenőrzést igényelnek az optimális eredmények elérése érdekében.
Vegyünk például egy lineáris regressziós modellt, amely egy sok jellemzőt tartalmazó adathalmazra tanít. Szabályosítás nélkül a modell nagy súlyokat rendelhet egyes funkciókhoz, amelyek nagyon szorosan illeszkednek az edzési adatokhoz, de a túlillesztés miatt rosszul teljesítenek a tesztadatokon. Az L2-szabályozás alkalmazásával a modell a súlyok egyenletesebb elosztását ösztönzi, ami potenciálisan jobb általánosítást eredményezhet az új adatokon.
Egy másik forgatókönyv szerint a képadatokon betanított neurális hálózat túlzottan illeszkedik azáltal, hogy megjegyzi a betanítási képekben lévő meghatározott mintákat. A lemorzsolódás alkalmazásával a hálózat kénytelen megtanulni általánosabb funkciókat, amelyek hasznosak a különböző képeken, javítva a teljesítményét a nem látott adatokon.
A rendszerezés a gépi tanulás alapvető fogalma, amely segít megelőzni a túlillesztést azáltal, hogy a bonyolultság miatti büntetést ad a modell elvesztési függvényéhez. A modell komplexitásának szabályozásával az olyan szabályosítási technikák, mint az L1, L2, Elastic Net, lemorzsolódás és korai leállítás, jobb általánosítást tesznek lehetővé az új adatokra, így nélkülözhetetlen eszközökké válnak a gépi tanulást végző szakember eszköztárában.
További friss kérdések és válaszok ezzel kapcsolatban EITC/AI/GCML Google Cloud Machine Learning:
- Sokféle algoritmust említett, mint például a lineáris regresszió, a döntési fák. Ezek mind neuronális hálózatok?
- Melyek egy modell teljesítményértékelési mutatói?
- Mi a lineáris regresszió?
- Lehetséges a különböző ML modellek kombinálása és egy master AI létrehozása?
- Melyek a gépi tanulásban leggyakrabban használt algoritmusok?
- Hogyan készítsünk egy verziót a modellből?
- Hogyan alkalmazzuk az ML 7 lépését egy példakörnyezetben?
- Hogyan alkalmazható a gépi tanulás az építési engedélyezési adatokra?
- Miért szűnt meg az AutoML Tables, és mi követi őket?
- Mi a feladata a játékosok által rajzolt emblémák értelmezésének az AI kontextusában?
További kérdések és válaszok az EITC/AI/GCML Google Cloud Machine Learningben