2.1. Ellenőrzött tanulás (tanítóval történő tanítás)

A tanítóval történő tanításnála tanítandó rendszer változtatása összetartozó be- és kimeneti tanító mintapárok felhasználásával történik. Ilyenkor a tanuló eljárás célja az, hogy a tanítandó rendszer felépítését (struktúráját és/vagy paramétereit) olyan módon válasszuk meg vagy alakítsuk ki, hogy a megtanított rendszer − amely valamely vizsgált rendszer modelljeként jelenik meg − működése minél inkább feleljen meg a vizsgált rendszer működésének. Úgy is fogalmazhatunk, hogy modell-illesztési feladatot kell megoldanunk.

A modell-illesztés feladata minden olyan esetben megjelenik, amikor "identifikálni", egyszerűbben kifejezve "meghatározni", "azonosítani", "mérni" szeretnénk valamit, vagy amikor "követni" szeretnénk folyamatokat. De lényegében ugyanerről van szó akkor is, amikor bonyolult, nehezen kezelhető jelenségekhez egyszerűbb − könnyebben kezelhető −, ugyanakkor főbb vonásaiban mégis hasonlóan viselkedő "modelleket" hozunk létre, illetőleg amikor a klasszikus regresszió-számítás módszerét alkalmazzuk.

A modell-illesztési feladat általánosan a következő formában fogalmazható meg: Adott egy rendszer, mely a bemenetei és a kimenetei között valamilyen g( . ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaam4zamaabmaabaGaaiOlaaGaayjkaiaawMcaaaaa@391B@ leképezést valósít meg. A leképezés nem ismert, viszont rendelkezésünkre áll egy { z i } i=1 l = { x i , d i } i=1 l MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaWaaiWaaeaacaWH6bWaaSbaaSqaaiaadMgaaeqaaaGccaGL7bGaayzFaaWaa0baaSqaaiaadMgacqGH9aqpcaaIXaaabaGaamiBaaaakiabg2da9maacmaabaGaaCiEamaaBaaaleaacaWGPbaabeaakiaacYcacaWGKbWaaSbaaSqaaiaadMgaaeqaaaGccaGL7bGaayzFaaWaa0baaSqaaiaadMgacqGH9aqpcaaIXaaabaGaamiBaaaaaaa@4A09@ mintapont-készlet, melynél az összetartozó bemeneti és kimeneti értékek közötti kapcsolatot az ismeretlen leképezés adja meg. A mintakészlet elemei, a mintapontok általában többdimenziós vektorok, melyek a mintatérben helyezkednek el.

A tanulási feladat az, hogy egy f( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaaaaa@3B19@ paraméteres függvényhalmazból, − ahol wW MathType@MTEF@5@5@+=feaagCart1ev2aqatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqipu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaacbeGaa83DaiabgIGioJqaaiaa+Dfaaaa@393B@ a függvényhalmaz paramétere és W a paramétertér − válasszunk egy függvényt olyan módon, hogy adott x i MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaaCiEamaaBaaaleaacaWGPbaabeaaaaa@380F@ bemenetre a kiválasztott függvény y i =f( x i ,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyEamaaBaaaleaacaWGPbaabeaakiabg2da9iaadAgadaqadaqaaiaahIhadaWgaaWcbaGaamyAaaqabaGccaGGSaGaaC4DaaGaayjkaiaawMcaaaaa@3F65@ válasza valamilyen értelemben a lehető legjobban közelítse az ismeretlen leképezés azonos bemenetre adott di válaszát. A di válaszokat kívánt válaszoknak (desired response) nevezzük. A függvényhalmaz szabad paramétereit tartalmazó w vektort a W paramétertér megfelelő pontjaként a rendelkezésre álló mintapontok alapján kell megválasztani vagy meghatározni.

Az { x i , d i } i=1 l MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaWaaiWaaeaacaWH4bWaaSbaaSqaaiaadMgaaeqaaOGaaiilaiaadsgadaWgaaWcbaGaamyAaaqabaaakiaawUhacaGL9baadaqhaaWcbaGaamyAaiabg2da9iaaigdaaeaacaWGSbaaaaaa@40D4@ mintapont-készletet tanító készletnek vagy tanító mintakészletnek (training set) nevezzük, azt az eljárást pedig, melynek során a tanító mintakészlet felhasználásával az f( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaaaaa@3B19@ leképezést kialakítjuk, tanulásnak (learning). A tanuló eljárás célja tehát egy valamilyen értelemben optimális w* paraméter meghatározása a tanító mintakészlet alapján.

Amennyiben az f( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaaaaa@3B19@ leképezést egy neuronháló valósítja meg, a függvénykészlet megválasztása a neuronháló típusának és architektúrájának megválasztásával történik, míg a tanítás valójában a w paramétervektor meghatározását, becslését szolgálja. Ebben az értelemben a tanulás egy paraméterbecslési eljárás. Nyilvánvaló tehát, hogy a tanuló eljárások és a statisztikai becslések között szoros kapcsolat található. Erről a kapcsolatról részletesebben a 2.4 alfejezetben szólunk.

Osztályozás és regresszió

Az általános modell-illesztési feladatosztályon belül több feladatcsoportot különböztethetünk meg. Ezek közül a neuronhálókhoz kapcsolódóan az osztályozási és a regressziós feladatcsoportokkal foglalkozunk.

Az osztályozási feladatoknál a rendszer által képviselt leképezést az

( x 1 , d 1 ),( x 2 , d 2 ),...,( x l , d l ) R N ×{ ±1 } MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaWaaeWaaeaacaWH4bWaaSbaaSqaaiaaigdaaeqaaOGaaiilaiaadsgadaWgaaWcbaGaaGymaaqabaaakiaawIcacaGLPaaacaGGSaWaaeWaaeaacaWH4bWaaSbaaSqaaiaaikdaaeqaaOGaaiilaiaadsgadaWgaaWcbaGaaGOmaaqabaaakiaawIcacaGLPaaacaaMi8UaaGjcVlaayIW7caGGSaGaaGjcVlaayIW7caaMi8UaaGjcVlaac6cacaGGUaGaaiOlaiaayIW7caaMi8UaaGjcVlaayIW7caGGSaGaaGjcVlaayIW7caaMi8+aaeWaaeaacaWH4bWaaSbaaSqaaiaadYgaaeqaaOGaaiilaiaadsgadaWgaaWcbaGaamiBaaqabaaakiaawIcacaGLPaaacqGHiiIZtCvAUfKttLearyqsTbNCP5gDG0evGmfAHr2B3bacfaGae8Nuai1aaWbaaSqabeaacaWGobaaaOGaey41aqRaaGjcVlaayIW7caaMi8UaaGjcVpaacmaabaGaeyySaeRaaGymaaGaay5Eaiaaw2haaaaa@7C2B@ (2.1)

tanító mintapontok alapján kell közelítenünk, míg a regressziós feladatnál a rendelkezésre álló összerendelt tanító mintapárok:

( x 1 , d 1 ),( x 2 , d 2 ),...,( x l , d l ) R N ×R MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaWaaeWaaeaacaWH4bWaaSbaaSqaaiaaigdaaeqaaOGaaiilaiaadsgadaWgaaWcbaGaaGymaaqabaaakiaawIcacaGLPaaacaGGSaWaaeWaaeaacaWH4bWaaSbaaSqaaiaaikdaaeqaaOGaaiilaiaadsgadaWgaaWcbaGaaGOmaaqabaaakiaawIcacaGLPaaacaaMi8UaaGjcVlaacYcacaaMi8UaaGjcVlaayIW7caaMi8UaaiOlaiaac6cacaGGUaGaaGjcVlaayIW7caaMi8UaaGjcVlaacYcacaaMi8UaaGjcVlaayIW7caaMi8+aaeWaaeaacaWH4bWaaSbaaSqaaiaadYgaaeqaaOGaaiilaiaadsgadaWgaaWcbaGaamiBaaqabaaakiaawIcacaGLPaaacqGHiiIZtCvAUfKttLearyqsTbNCP5gDG0evGmfAHr2B3bacfaGae8Nuai1aaWbaaSqabeaacaWGobaaaOGaey41aqRaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8Uae8Nuaifaaa@804F@ (2.2)

egy, általában zajos leképezés d i =g( x i )+ n i MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamizamaaBaaaleaacaWGPbaabeaakiabg2da9iaadEgadaqadaqaaiaahIhadaWgaaWcbaGaamyAaaqabaaakiaawIcacaGLPaaacqGHRaWkcaWGUbWaaSbaaSqaaiaadMgaaeqaaaaa@4090@ eredményeképpen nyerhetők. Itt g( . ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaam4zamaabmaabaGaaiOlaaGaayjkaiaawMcaaaaa@391B@ egy determinisztikus függvény, a regressziós függvény, n i MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOBamaaBaaaleaacaWGPbaabeaaaaa@3801@ pedig a kimeneti megfigyelési zaj. A (2.1) összefüggés kétosztályos osztályozási feladatot tételez fel, de nyilvánvalóan tetszőleges (véges) számú osztályra is kiterjeszthető. A különbség mindössze annyi, hogy a válasz nemcsak két érték közül kerülhet ki, hanem a véges számú lehetséges értékek közül bármelyik lehet. A (2.2) által definiált mintapontokról feltételeztük, hogy egy több-bemenetű − egykimenetű leképezésből származnak. Az egydimenziós kimenet feltételezése nem korlátozza a feladat általános megfogalmazását. A többdimenziós kimenetre való kiterjesztés természetes módon lehetséges.

A megfigyelési zajról általában feltételezzük, hogy várható értéke bármely x mellett nulla, továbbá, hogy a megfigyelési zaj és a regressziós függvény korrelálatlanok egymással, vagyis

E n|x { n|x }=0 MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyramaaBaaaleaacaWGUbWaaqqaaeaacaWH4baacaGLhWoaaeqaaOWaaiWaaeaacaWGUbWaaqqaaeaacaWH4baacaGLhWoaaiaawUhacaGL9baacqGH9aqpcaaIWaaaaa@41F5@ , (2.3)

illetve

E{ ng( x ) }=0 MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyramaacmaabaGaamOBaiaayIW7caWGNbWaaeWaaeaacaWH4baacaGLOaGaayzkaaaacaGL7bGaayzFaaGaeyypa0JaaGimaaaa@40A9@ . (2.4)

Nulla várható értékű, korrelálatlan zaj mellett a regressziós feladat valójában egy feltételes várhatóérték-képzési feladat, vagyis g( x ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaam4zamaabmaabaGaaCiEaaGaayjkaiaawMcaaaaa@396A@ a megfigyelés feltételes várhatóértéke

g( x )= E d|x { d|x } MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaam4zamaabmaabaGaaCiEaaGaayjkaiaawMcaaiabg2da9iaadweadaWgaaWcbaGaamizamaaeeaabaGaaCiEaaGaay5bSdaabeaakmaacmaabaGaamizamaaeeaabaGaaCiEaaGaay5bSdaacaGL7bGaayzFaaaaaa@449D@ . (2.5)

Minősítés, hibamértékek

A legjobb approximációt biztosító függvény meghatározásához az approximáció minőségét jellemző mértékre van szükség. Ez a mérték egy hibafüggvény (error function) felhasználásával határozható meg, amit költségfüggvénynek (cost function) vagy veszteségfüggvénynek (loss function) is szokás nevezni. A veszteségfüggvény − amit a továbbiakban L( d,f( x,w ) ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamitamaabmaabaGaamizaiaacYcacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaiaawIcacaGLPaaaaaa@3F0C@ -vel fogunk jelölni − mind a háló válaszának, f( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaaaaa@3B19@ -nek, mind a rendelkezésre álló d( x ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamizamaabmaabaGaaCiEaaGaayjkaiaawMcaaaaa@3967@ kívánt válasznak a függvénye: leggyakrabban az approximáció ε( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaeqyTdu2aaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaaa@3BD5@ hibájának a függvénye, ahol a hibát a kívánt válasz és a tényleges válasz különbségeként definiálhatjuk:

ε( x,w )=d( x )f( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaeqyTdu2aaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaacqGH9aqpcaWGKbWaaeWaaeaacaWH4baacaGLOaGaayzkaaGaeyOeI0IaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaaaaa@4660@ . (2.6)

A tanuló rendszer konstrukciója – akár osztályozási, akár regressziós probléma megoldására irányul – véges számú tanító mintapont alapján történik. A tanuló eljárás célja azonban általában nem az, hogy a véges számú tanítópontban kapjunk megfelelő válaszokat, hanem egy olyan leképezés megtanulása, amely a tanítópontok által reprezentált bemenet-kimenet kapcsolatot is megadja. A tanuló rendszer tehát általánosítóképességgel (generalization capability) kell rendelkezzen: olyan esetekben is „jó” választ kell adjon, mely esetek nem szerepelnek a tanítópontok között. A tanulás nehézségét épp ez adja: véges számú tanítópont alapján kell egy problémáról „általános tudást” szerezni.

Az adatokból történő tanulás egy rosszul definiált feladat. Példaképp nézzünk egy függvényapproximációs problémát. Mint a 2.1. ábrán látható, a pontokkal jelölt tanítópontokra több – akár végtelen sok – különböző függvény illeszthető, melyek mindegyikére igaz lehet, hogy átmegy a megadott pontokon, vagy azokat tetszőleges pontossággal közelíti, miközben a tanítópontoktól eltérő pontokban az egyes függvények viselkedése nagymértékben különbözhet.

2.1. ábra - A tanítópontok alapján történő függvényapproximáció egy rosszul definiált feladat: a tanítópontok nem határozzák meg egyértelműen a bemenet és a kimenet közötti függvénykapcsolatot
A tanítópontok alapján történő függvényapproximáció egy rosszul definiált feladat: a tanítópontok nem határozzák meg egyértelműen a bemenet és a kimenet közötti függvénykapcsolatot

A tanuló rendszer minősítésére ezért olyan mértékre van szükségünk, amely nem csupán azt mondja meg, hogy a tanuló rendszer a tanító mintapontokat milyen pontosan tanulta meg, hanem a rendszer általánosítóképességéről is mond valamit.

A veszteségfüggvény adott bemenet mellett minősíti a tanuló rendszert. A minősítésre azonban alkalmasabb mérték, ha a veszteség összes pontra vonatkozó átlagos értékét, a veszteség várható értékét, az ún. kockázatot (risk) határozzuk meg, ahol a kockázat a veszteségfüggvényhez rendelt számérték:

R( w )= E x,d { L( d,f( x,w ) ) } MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOuamaabmaabaGaaC4DaaGaayjkaiaawMcaaiabg2da9iaadweadaWgaaWcbaGaaCiEaiaacYcacaWGKbaabeaakmaacmaabaGaamitamaabmaabaGaamizaiaacYcacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaiaawIcacaGLPaaaaiaawUhacaGL9baaaaa@493D@ . (2.7)

A kockázat meghatározásánál a várható értéket a minták p( x,d ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamiCamaabmaabaGaaCiEaiaacYcacaWGKbaacaGLOaGaayzkaaaaaa@3B0C@ együttes sűrűségfüggvénye szerint kell vennünk. Ugyanakkor − ahogy ezt az R(w) jelölés mutatja is − a kockázat a paramétervektor függvénye, amit szokás kritériumfüggvénynek (criterion function) is nevezni és C(w)-vel jelölni. A továbbiakban a két elnevezést és a kétfajta jelölést egymás alternatívájaként kezeljük: adott szövegkörnyezetben azt a jelölést/elnevezést használjuk, melyet az aktuális témakörben általánosabban használnak.

Osztályozási feladatoknál veszteségfüggvényként általában az osztályozási hibát használhatjuk, vagyis

L( d,f( x,w ) )={ 0had=f( x,w ) 1ha  df( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamitamaabmaabaGaamizaiaacYcacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaiaawIcacaGLPaaacqGH9aqpdaGabaqaauaabeqaceaaaeaacaaIWaGaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caqGObGaaeyyaiaayIW7caaMi8UaaGjcVlaayIW7caWGKbGaeyypa0JaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaGaaGjcVdqaaiaaigdacaaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaeiAaiaabggacaqGGaGaaeiiaiaadsgacqGHGjsUcaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaaaacaGL7baacaaMi8UaaGjcVlaayIW7caaMi8oaaa@9392@ (2.8)

Ekkor a (2.7) szerinti kockázat a téves osztályozás valószínűségét adja meg. A tanulás tehát olyan f( x, w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOzamaabmaabaGaaCiEaiaacYcacaWH3bWaaWbaaSqabeaacqGHxiIkaaaakiaawIcacaGLPaaaaaa@3C3F@ osztályozó konstrukcióját célozza, amely a hibás osztályozás valószínűségét minimalizálja. Itt w* az adott függvényosztályt és a rendelkezésre álló tanító mintapont-készletet tekintve az optimális paramétervektor.

A regressziós feladatoknál az egyik leggyakoribb veszteségfüggvény a hiba négyzetes függvénye:

L( d,f( x,w ) )= ( d( x )f( x,w ) ) 2 MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamitamaabmaabaGaamizaiaacYcacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaiaawIcacaGLPaaacqGH9aqpdaqadaqaaiaadsgadaqadaqaaiaahIhaaiaawIcacaGLPaaacqGHsislcaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaiaawIcacaGLPaaadaahaaWcbeqaaiaaikdaaaaaaa@4C09@ , (2.9)

bár más veszteségfüggvények alkalmazása is szokásos. Ilyen függvény lehet pl. az abszolútérték függvény vagy ennek kissé módosított változata az ún. ε érzéketlenségi sávval rendelkező abszolútérték függvény. Egyes speciális alkalmazásokban szerepet kaphatnak a különböző abszolútérték-hatvány függvények, és ezek lineáris kombinációi, az "igen-nem" függvény, amely az optimumnál, ill. annak egy rögzített, általában szűk környezetében nulla, egyébként egységnyi (vagy más pozitív) értéket vesz fel. Speciális alkalmazásokban használnak logaritmikus, trigonometrikus, hiperbolikus függvényekből alkalmasan előállított hibafüggvényeketis. Egyes osztályozási feladatoknál előnyösen alkalmazható az

L( d,f( x,w ) )=( dlnf( x,w )+( 1d )ln( 1f( x,w ) ) ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamitamaabmaabaGaamizaiaacYcacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaiaawIcacaGLPaaacqGH9aqpcqGHsislcaaMi8UaaGjcVlaayIW7caaMi8+aaeWaaeaacaaMi8UaaGjcVlaadsgacaaMi8UaaGjcVlaayIW7caqGSbGaaeOBaiaayIW7caWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaacqGHRaWkdaqadaqaaiaaigdacqGHsislcaWGKbaacaGLOaGaayzkaaGaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caqGSbGaaeOBamaabmaabaGaaGymaiabgkHiTiaadAgadaqadaqaaiaahIhacaGGSaGaaC4DaaGaayjkaiaawMcaaaGaayjkaiaawMcaaiaayIW7aiaawIcacaGLPaaaaaa@72B8@ (2.10)

keresztentrópia függvény is. (A téma iránt mélyebben érdeklődők az irodalomban pl. [Cic93] találhatnak ilyeneket, pl. a logisztikus, a Huber, a Talvar és a Hampel függvényt.)

A hibafüggvény konkrét alakja − bizonyos közös lényeges tulajdonságokon (pl. az optimumhoz tartozó szélsőérték) túlmenően − a feladat jellegétől, az a priori ismeretektől (pl. különböző zaj eloszlások esetén más-más függvény biztosítja a "jobb" viselkedést), és bizonyos mértékig szubjektív tényezőktől is függ. A hibafüggvény megválasztása befolyásolja a tanuló eljárás jellemzőit: az eljárás konvergenciáját, illetve a konvergencia sebességét, sőt magát a megoldást is. Néhány fontosabb hibafüggvényt a 2.2 ábrán mutatunk be.

2.2. ábra - Fontosabb veszteségfüggvények: (a)négyzetes függvény, (b)abszolútérték függvény, (c) ε érzéketlenségi sávval rendelkező igen-nem függvény
Fontosabb veszteségfüggvények: (a)négyzetes függvény, (b)abszolútérték függvény, (c) ε érzéketlenségi sávval rendelkező igen-nem függvény

A kockázat négyzetes veszteségfüggvény mellett a tanuló rendszer átlagos négyzetes hibája. Az átlagos négyzetes hiba vizsgálata több hasznos következtetésre ad lehetőséget. Ennek érdekében bontsuk fel a kockázat kifejezését több tagra:

R( w )=E{ ( df( x,w ) ) 2 }=E{ ( dg( x )+g( x )f( x,w ) ) 2 } =E{ ( dg( x ) ) 2 }+E{ ( f( x,w )g( x ) ) 2 }+2E{ ( dg( x ) )( g( x )f( x,w ) ) } MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGceaqabeaacaWGsbWaaeWaaeaacaWH3baacaGLOaGaayzkaaGaeyypa0JaamyramaacmaabaGaaGjcVlaayIW7daqadaqaaiaadsgacqGHsislcaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaaaiaawIcacaGLPaaadaahaaWcbeqaaiaaikdaaaaakiaawUhacaGL9baacqGH9aqpcaWGfbWaaiWaaeaacaaMi8UaaGjcVpaabmaabaGaamizaiabgkHiTiaadEgadaqadaqaaiaahIhaaiaawIcacaGLPaaacqGHRaWkcaWGNbWaaeWaaeaacaWH4baacaGLOaGaayzkaaGaeyOeI0IaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaaacaGLOaGaayzkaaWaaWbaaSqabeaacaaIYaaaaaGccaGL7bGaayzFaaaabaGaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlabg2da9iaadweadaGadaqaaiaayIW7caaMi8+aaeWaaeaacaWGKbGaeyOeI0Iaam4zamaabmaabaGaaCiEaaGaayjkaiaawMcaaaGaayjkaiaawMcaamaaCaaaleqabaGaaGOmaaaaaOGaay5Eaiaaw2haaiabgUcaRiaadweadaGadaqaaiaayIW7caaMi8+aaeWaaeaacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaacqGHsislcaWGNbWaaeWaaeaacaWH4baacaGLOaGaayzkaaaacaGLOaGaayzkaaWaaWbaaSqabeaacaaIYaaaaaGccaGL7bGaayzFaaGaey4kaSIaaGOmaiaadweadaGadaqaaiaayIW7caaMi8+aaeWaaeaacaWGKbGaeyOeI0Iaam4zamaabmaabaGaaCiEaaGaayjkaiaawMcaaaGaayjkaiaawMcaamaabmaabaGaam4zamaabmaabaGaaCiEaaGaayjkaiaawMcaaiabgkHiTiaadAgadaqadaqaaiaahIhacaGGSaGaaC4DaaGaayjkaiaawMcaaaGaayjkaiaawMcaaiaayIW7caaMi8oacaGL7bGaayzFaaaaaaa@C924@ (2.11)

Feltételezve, hogy − amint azt az előbbiekben kikötöttük − a megfigyelési zaj nulla várható értékű, továbbá, hogy a zaj és a g( x ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaam4zamaabmaabaGaaCiEaaGaayjkaiaawMcaaaaa@396A@ leképezés korrelálatlan, a (2.11) összefüggés utolsó tagja zérus, hiszen dg( x )=n MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamizaiabgkHiTiaadEgadaqadaqaaiaahIhaaiaawIcacaGLPaaacqGH9aqpcaWGUbaaaa@3D39@ . Így a kockázat az alábbi két tagra bontható:

R( w )=E{ ( dg( x ) ) 2 }+E{ ( f( x,w )g( x ) ) 2 }=E{ n 2 }+E{ ( f( x,w )g( x ) ) 2 } MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOuamaabmaabaGaaC4DaaGaayjkaiaawMcaaiabg2da9iaadweadaGadaqaaiaayIW7caaMi8+aaeWaaeaacaWGKbGaeyOeI0Iaam4zamaabmaabaGaaCiEaaGaayjkaiaawMcaaaGaayjkaiaawMcaamaaCaaaleqabaGaaGOmaaaaaOGaay5Eaiaaw2haaiabgUcaRiaadweadaGadaqaaiaayIW7caaMi8+aaeWaaeaacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaacqGHsislcaWGNbWaaeWaaeaacaWH4baacaGLOaGaayzkaaaacaGLOaGaayzkaaWaaWbaaSqabeaacaaIYaaaaaGccaGL7bGaayzFaaGaeyypa0JaamyramaacmaabaGaamOBamaaCaaaleqabaGaaGOmaaaaaOGaay5Eaiaaw2haaiabgUcaRiaadweadaGadaqaaiaayIW7caaMi8+aaeWaaeaacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaacqGHsislcaWGNbWaaeWaaeaacaWH4baacaGLOaGaayzkaaaacaGLOaGaayzkaaWaaWbaaSqabeaacaaIYaaaaaGccaGL7bGaayzFaaaaaa@742C@ (2.12)

Az első tag nem függ a tanuló rendszer leképezésétől, csupán a megfigyelt kívánt válasz és a g( x ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaam4zamaabmaabaGaaCiEaaGaayjkaiaawMcaaaaa@396A@ ideális leképezés eltérésétől, ami épp a megfigyelési zaj. Az első tag tehát a megfigyelési zaj varianciájával egyenlő. Ez a hibakomponens nyilvánvalóan független a tanuló eljárástól, és nem is csökkenthető w megfelelő megválasztásával: az optimális w meghatározásánál tehát figyelmen kívül hagyható. Ebből következik, hogy a kockázat minimumát biztosító w* paramétervektor egyben a tanuló rendszer és a regressziós függvény válaszainak átlagos négyzetes eltérését is minimalizálja.

A feltételezett zajmodell mellett tehát a zajos megfigyelések ellenére a kockázatminimalizálás a regressziós függvény átlagos négyzetes értelemben vett legjobb közelítését eredményezi. Másfelől, ha a tanulás célját úgy fogalmazzuk meg, hogy azt az f( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaaaaa@3B19@ -t keressük, amely adott x mellett a lehető legjobban közelíti a megfelelő d MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamizaaaa@36DD@ kívánt választ, akkor a megoldást az

MSE( w )=E{ ( f( x,w )g( x ) ) 2 } MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamytaiaadofacaWGfbGaaGjcVlaayIW7daqadaqaaiaahEhaaiaawIcacaGLPaaacqGH9aqpcaWGfbGaaGjcVlaayIW7daGadaqaaiaayIW7daqadaqaaiaadAgadaqadaqaaiaahIhacaGGSaGaaC4DaaGaayjkaiaawMcaaiabgkHiTiaadEgacaaMi8UaaGjcVpaabmaabaGaaCiEaaGaayjkaiaawMcaaaGaayjkaiaawMcaaiaayIW7caaMi8+aaWbaaSqabeaacaaIYaaaaaGccaGL7bGaayzFaaaaaa@590F@ (2.13)

minimalizálása biztosítja. A válasz helyességének természetes mértéke tehát a tanuló rendszer leképezése és a regressziós függvény kimenete közötti eltérés átlagos négyzetes értéke (MSE).

Az approximációs hiba (2.13) kifejezése alkalmas a megoldás minősítésének további elemzésére is. Az átlagos négyzetes eltérés ugyanis tovább dekomponálható, és ennek a dekompozíciónak az eredményeképpen juthatunk a torzítás-variancia dilemmához.

Torzítás-variancia dilemma

Bontsuk fel a (2.13) kifejezést a következő módon:

. MSE( w )=E{ ( f( x,w )g( x ) ) 2 } =E{ ( g( x )E{ f( x,w ) }+E{ f( x,w ) }f( x,w ) ) 2 } =( g( x )E{ f( x,w ) } ) 2 +E{ ( f( x,w )E{ f( x,w ) } ) 2 } =B 2 ( w )+V( w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGceaqabeaacaWGnbGaam4uaiaadweacaaMi8UaaGjcVpaabmaabaGaaC4DaaGaayjkaiaawMcaaiabg2da9iaadweacaaMi8UaaGjcVpaacmaabaGaaGjcVlaayIW7daqadaqaaiaadAgadaqadaqaaiaahIhacaGGSaGaaC4DaaGaayjkaiaawMcaaiabgkHiTiaadEgadaqadaqaaiaahIhaaiaawIcacaGLPaaaaiaawIcacaGLPaaacaaMi8UaaGjcVpaaCaaaleqabaGaaGOmaaaaaOGaay5Eaiaaw2haaaqaaiaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7cqGH9aqpcaWGfbGaaGjcVlaayIW7daGadaqaaiaayIW7caaMi8+aaeWaaeaacaWGNbGaaGjcVlaayIW7daqadaqaaiaahIhaaiaawIcacaGLPaaacqGHsislcaWGfbGaaGjcVlaayIW7daGadaqaaiaadAgadaqadaqaaiaahIhacaGGSaGaaC4DaaGaayjkaiaawMcaaiaayIW7caaMi8oacaGL7bGaayzFaaGaey4kaSIaamyraiaayIW7caaMi8+aaiWaaeaacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaacaaMi8UaaGjcVdGaay5Eaiaaw2haaiabgkHiTiaadAgadaqadaqaaiaahIhacaGGSaGaaC4DaaGaayjkaiaawMcaaaGaayjkaiaawMcaaiaayIW7caaMi8+aaWbaaSqabeaacaaIYaaaaaGccaGL7bGaayzFaaaabaGaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlabg2da9maabmaabaGaam4zaiaayIW7caaMi8+aaeWaaeaacaWH4baacaGLOaGaayzkaaGaeyOeI0IaamyraiaayIW7caaMi8+aaiWaaeaacaWGMbWaaeWaaeaacaWH4bGaaiilaiaahEhaaiaawIcacaGLPaaacaaMi8UaaGjcVdGaay5Eaiaaw2haaiaayIW7aiaawIcacaGLPaaacaaMi8UaaGjcVpaaCaaaleqabaGaaGOmaaaakiabgUcaRiaadweacaaMi8UaaGjcVpaacmaabaGaaGjcVlaayIW7daqadaqaaiaadAgadaqadaqaaiaahIhacaGGSaGaaC4DaaGaayjkaiaawMcaaiabgkHiTiaadweacaaMi8UaaGjcVpaacmaabaGaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaGaaGjcVlaayIW7aiaawUhacaGL9baacaaMi8oacaGLOaGaayzkaaGaaGjcVlaayIW7daahaaWcbeqaaiaaikdaaaaakiaawUhacaGL9baaaeaacaaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7caaMi8UaaGjcVlaayIW7cqGH9aqpcaWGcbGaaGjcVlaayIW7daahaaWcbeqaaiaaikdaaaGcdaqadaqaaiaahEhaaiaawIcacaGLPaaacqGHRaWkcaWGwbWaaeWaaeaacaWH3baacaGLOaGaayzkaaaaaaa@9DA7@ . (2.14)

A felbontás szerint az átlagos négyzetes eltérés két tagjából az első, B2(w) a torzítás négyzete, a második, V(w) pedig a megoldás varianciája. A torzítás (bias) azt mutatja meg, hogy a tanuló rendszer leképezésének várható értéke mennyiben tér el a regressziós függvénytől, míg a variancia a leképezésnek a saját várható értékétől való átlagos négyzetes eltérését adja meg. A torzítás arra ad választ, hogy az adott függvényosztály − amit a háló típusa és architektúrája rögzít − mennyire alkalmas a kérdéses approximációs feladat megoldására, a variancia pedig a véges számú tanítópont következménye: azt adja meg, hogy a véges számú tanítópont felhasználásával konstruált háló válasza, f( x,w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOzamaabmaabaGaaCiEaiaacYcacaWH3baacaGLOaGaayzkaaaaaa@3B19@ mennyire érzékeny arra, hogy egy adott problémából származó aktuális tanítóhalmaz épp milyen mintapontokból áll.

Azonos négyzetes hiba előállhat nagyobb torzítás és kisebb variancia vagy kisebb torzítás és nagyobb variancia mellett; a két eset eltérő jellegű approximációt jelent. A szabad paraméterek számának növelése és így a háló által megvalósított függvényosztály komplexitásának növelése a torzítás csökkentését eredményezi. Minél több a szabad paraméter, annál komplexebb leképezés megvalósítására lehet alkalmas a neuronháló. Elegendően nagyszámú szabad paraméter mellett a háló válasza a tanítópontokban akár tetszőlegesen kis hibájú is lehet, miközben a tanítópontok között a válasz a valódi leképezéstől jelentős mértékben eltérhet. Ezt az esetet, amikor a torzítás kicsi, de a variancia nagy túlilleszkedésnek (overfitting) nevezik. A variancia csökkentése elsősorban a felhasznált tanítópontok számának a növelésével, pontosabban a szabad paraméterek számának és a tanítópontok számának megfelelő összehangolásával lehetséges.

A túlilleszkedésre példa egy olyan polinomiális regresszió, amikor kevés mintapontra akarunk nagyfokszámú polinomot illeszteni. A 2.3 ábra egy szinuszos függvény polinomiális approximációját mutatja kissé zajos mintavételi pontok alapján. Az (a) ábrán egy túl nagy fokszámú (18-ad fokú) polinommal történő közelítés, a (b) ábrán egy 5-ödfokú polinom illesztésének az eredménye látható. Látható, hogy a fokszám csökkentésével − esetleg a mintapontokbeli tökéletes illeszkedés rovására − a pontsorozat általános trendjének követése inkább lehetséges.

2.3. ábra - A szabad paraméterek számának hatása a túlilleszkedére: szinusz függvény polinomiális approximációja. (a) 18-ad fokú polinommal, (b) 5-ödfokú polinommal
A szabad paraméterek számának hatása a túlilleszkedére: szinusz függvény polinomiális approximációja. (a) 18-ad fokú polinommal, (b) 5-ödfokú polinommal

A torzítás-variancia dilemma tehát azt a kérdést veti fel, hogy hogyan viszonyuljon egymáshoz a kétféle hibakomponens. A kérdés szorosan összefügg a háló típusának és méretének (komplexitásának) a megválasztásával, de kapcsolatban van a tanítópontok számával és magával az alkalmazott tanuló eljárással is. Az átlagos négyzetes hiba ilyen felbontása tehát azáltal, hogy segít a hiba értelmezésében, fontos szerepet tölt be a hálók megfelelő konstrukciójában.

A torzítás-variancia dilemmát szemlélteti a 2.4 ábra. Látható, hogy az átlagos négyzetes értelemben legjobb megoldást nem a nagykomplexitású háló eredményezi, hanem az, ha a komplexitás összhangban van a tanítópontok számával és a feladat bonyolultságával.

Regularizáció

Mint láttuk, a véges számú mintapont alapján történő tanulási feladat rosszul definiált probléma. Egy feladatot rosszul definiáltnak (ill-posed) [Had02] nevezünk, ha

  • nem létezik megoldása, vagy

  • a megoldás nem egyértelmű, vagy

  • a megoldás a kiinduló adatoknak nem folytonos függvénye.

Mint ahogy a 2.1. ábra is illusztrálta, a véges számú pontból egy bemenet-kimenet leképezés megtanulása rosszul definiált probléma, mert a második feltételt nem teljesíti.

2.4. ábra - A torzítás-variancia dilemma.
A torzítás-variancia dilemma.

Az adatokból történő tanulás ugyanakkor ún. inverz probléma is. Tekintsünk egy y=f( x ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyEaiabg2da9iaadAgadaqadaqaaiaahIhaaiaawIcacaGLPaaaaaa@3B6D@ függvénykapcsolattal definiált leképezést. Ha a függvény ismert, adott xi i=1, 2, … , l független változó értékekhez a megfelelő yi függvényértékek egyértelműen meghatározhatók. Ezzel szemben, ha az összetartozó { x i , d i } i=1 l MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaWaaiWaaeaacaWH4bWaaSbaaSqaaiaadMgaaeqaaOGaaiilaiaadsgadaWgaaWcbaGaamyAaaqabaaakiaawUhacaGL9baacaaMi8UaaGjcVpaaDaaaleaacaWGPbGaeyypa0JaaGymaaqaaiaadYgaaaaaaa@43F6@ mintapontokat ismerjük, és ebből akarjuk visszaállítani az y=f( x ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyEaiabg2da9iaadAgadaqadaqaaiaahIhaaiaawIcacaGLPaaaaaa@3B6D@ függvényt, akkor egy inverz problémával állunk szemben. Az inverz problémák között számos rosszul definiált problémát találunk.

A neuronhálók tanításánál a rosszul definiáltság valójában azt jelenti, hogy a rendelkezésre álló információ − a tanítópontok együttese − az egyértelmű megoldáshoz nem elegendő. Egyértelmű megoldást csak további információ birtokában kaphatunk. Ilyen további információ lehet, hogy a megtanulandó leképezés − azon túl, hogy illeszkednie kell a tanítópontokra − legyen minél simább. Hasonló járulékos információként szolgálhat, ha egy kétosztályos osztályozási feladatnál arra törekszünk, hogy a két osztályt elválasztó felület ne csak elválassza a tanítópontokat, hanem az elválasztás minél nagyobb biztonsággal, tartalékkal valósuljon meg, az elválasztó felület az egyes osztályokba tartozó tanítópontoktól minél távolabb legyen,

A járulékos információkat be kell építenünk a probléma megfogalmazásába: a kockázat funkcionált járulékos taggal (tagokkal) kell kiegészítenünk. A járulékos tag mellékfeltételként vagy büntető tagként igyekszik a tanuló eljárást rákényszeríteni, hogy ne csak a kockázatot minimalizáló, hanem a mellékfeltételnek is eleget tevő megoldást kapjunk. Ha a kritériumfüggvényünket úgy módosítjuk, hogy a mintapontokra vonatkozó kockázatot kiegészítjük megfelelő mellékfeltétel(eke)t megfogalmazó taggal (tagokkal), regularizációról beszélünk [Tik77]. Regularizált esetben a kockázat helyett egy

R r ( w )=R( w )+λΩ( w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOuamaaBaaaleaacaWGYbaabeaakmaabmaabaGaaC4DaaGaayjkaiaawMcaaiabg2da9iaadkfadaqadaqaaiaahEhaaiaawIcacaGLPaaacqGHRaWkcqaH7oaBcaWGPoGaaGjcVlaayIW7daqadaqaaiaahEhaaiaawIcacaGLPaaaaaa@4859@ (2.15)

kifejezés minimumát (szélső értékét) biztosító paramétervektort keresünk, ahol R(w) az eredeti kockázat, Ω( w ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamyQdiaayIW7caaMi8+aaeWaaeaacaWH3baacaGLOaGaayzkaaaaaa@3CD0@ a regularizációs feltételt megfogalmazó járulékos komponens és λ az ún. regula-rizációs együttható. A járulékos tag valamilyen plusz feltétel, kényszer figyelembevételét szolgája, amely tükrözhet meglévő a priori információt, megfogalmazhat valamely, a realizációval kapcsolatos kényszert, vagy csak egyszerűen segíthet a szélsőérték probléma megoldásában. A regulari-zációs együttható szerepe, hogy az eredő kockázatban biztosítsa az eredeti kockázat és a regulari-zációs feltétel megfelelő arányát. A regularizáció, melynek elméleti megalapozása Andrej Tyihonovtól származik [Tik77], általában a rosszul definiált feladatok megoldásában nyújt segítséget. A regularizációs technika alkalmazására példákat a további fejezetekben, konkrét hálók kapcsán mutatunk.

Minősítő és teszt minták alkalmazása, kereszt kiértékelés

A kockázat alkalmazása a tanítás alatt álló vagy a megtanított háló minősítésére csak elvi lehetőség, hiszen a várható érték számításához vagy a p( x,d ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamiCamaabmaabaGaaCiEaiaacYcacaWGKbaacaGLOaGaayzkaaaaaa@3B0C@ együttes sűrűségfüggvény vagy a P( x,d ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamiuamaabmaabaGaaCiEaiaacYcacaWGKbaacaGLOaGaayzkaaaaaa@3AEC@ együttes eloszlásfüggvény ismeretére lenne szükség. A mintákból történő tanulásnál ezeket azonban nem ismerjük, így a tanuló rendszer minősítésére a kockázat közvetlenül nem használható.

A kockázat közvetett meghatározásával lehetőségünk nyílna a tanuló rendszer minősítésére. Ekkor a tanítópontok alapján előbb az ismeretlen sűrűségfüggvényt becsüljük, majd annak ismeretében már tudunk becslést adni a kockázatra. A közvetett megoldás nehézsége, hogy a sűrűségfüggvény megfelelő pontosságú becsléséhez nagyszámú mintára van szükségünk. Hasznosabbnak bizonyul, ha nem ezt az utat választjuk, hanem a rendelkezésre álló mintapontokat mind a háló tanítására, mind annak minősítésére is közvetlenül felhasználjuk. Ez a megközelítés abból az általános elvből indul ki, hogy ne kíséreljünk meg egy speciális problémát egy nála nehezebb általános probléma megoldásának felhasználásával, indirekt úton megoldani [Vap95].

Amennyiben a sűrűségfüggvényt nem ismerjük, a kockázat alapján történő minősítés helyett a minősítésre is csak a rendelkezésünkre álló mintapontokat használhatjuk. Mást nem tehetünk, minthogy az ismert válaszú pontok esetében meghatározzuk a tanuló rendszer válaszának hibáját. Ezen pontok hibájának átlagát empirikus vagy tapasztalati kockázatnak (empirical risk) nevezzük. Az l ismert tanító pontpár esetében a tapasztalati kockázat:

R emp ( w )= 1 l i=1 l L( d i ,f( x i w ) ) MathType@MTEF@5@5@+=feaagCart1ev2aaatCvAUfeBSjuyZL2yd9gzLbvyNv2CaerbuLwBLnhiov2DGi1BTfMBaeXatLxBI9gBaerbd9wDYLwzYbItLDharqqtubsr4rNCHbGeaGqiVu0Je9sqqrpepC0xbbL8F4rqqrFfpeea0xe9Lq=Jc9vqaqpepm0xbba9pwe9Q8fs0=yqaqpepae9pg0FirpepeKkFr0xfr=xfr=xb9adbaqaaeGaciGaaiaabeqaamaabaabaaGcbaGaamOuamaaBaaaleaacaqGLbGaaeyBaiaabchaaeqaaOWaaeWaaeaacaWH3baacaGLOaGaayzkaaGaeyypa0ZaaSaaaeaacaaIXaaabaGaamiBaaaadaaeWbqaaiaadYeadaqadaqaaiaadsgadaWgaaWcbaGaamyAaaqabaGccaGGSaGaamOzamaabmaabaGaaCiEamaaBaaaleaacaWGPbaabeaakiaahEhaaiaawIcacaGLPaaaaiaawIcacaGLPaaaaSqaaiaadMgacqGH9aqpcaaIXaaabaGaamiBaaqdcqGHris5aaaa@4FA9@ , (2.16)

vagyis a tanítópontokban meghatározott veszteség átlaga.

Amennyiben a tapasztalati kockázatot a tanulásnál felhasznált mintapontokra számítjuk, a háló általánosító-képességéről általában semmit sem mondhatunk. A már említett túlilleszkedés miatt ugyanis előfordulhat, hogy a háló a tanítópontokat nagy pontossággal megtanulta, miközben a tanítópontoktól eltérő pontoknál a hiba nagyon nagy is lehet. A háló általánosítóképességének jellemzésére olyan mintapontokra kell meghatároznunk a tapasztalati hibát, melyeket a tanításnál nem használtunk fel.

Ennek érdekében egy külön kiértékelő (validation) mintakészletet kell használnunk, melynek mintái ugyancsak a megoldandó feladatból származnak, de amelyek függetlenek a tanító készlettől. A kiértékelő mintakészletet sokszor a tanítás folyamata alatt, a tanulás előrehaladtának értékelésére használjuk. Így, annak ellenére, hogy ezen minták nem tartoznak a tanításnál közvetlenül felhasznált mintapontok közé, közvetve részei a tanuló eljárásnak. A megtanított háló minősítésére ekkor egy ettől is független mintakészlet, a tesztkészlet szolgálhat. A tesztkészlet szintén az adott problémából származó összetartozó be-kimeneti mintapárok halmaza. A tesztkészlet mintapontjait azonban a tanításnál sem közvetlenül, sem közvetve nem használjuk fel. A tesztkészlet a megtanított háló végső értékelésére, a háló általánosítóképességének a becslésére használható.

A rendelkezésre álló mintapontokat egy problémánál ezért három részre, tanító-, értékelő- és tesztelő készletre kell bontanunk. Kellően nagyszámú adat mellet ez nem okoz nehézséget. Ha azonban kevés adat áll rendelkezésünkre (ez számos gyakorlati feladatnál előfordulhat vagy az adatok beszerzésének nagy költsége, vagy az adatoknak a probléma természetéből adódó kis száma miatt) a három diszjunkt készletre bontás azt eredményezheti, hogy az egyes részfeladatok elvégzéséhez túl kevés mintapontunk marad. Így, ha viszonylag sok pontot használunk fel a tanításra és kevés marad a megtanított hálózat minősítésére, nem lehetünk biztosak a megtanított hálózat képességeit illetően. Ezzel szemben, ha a minősítésre hagyunk több mintapontot és ezért kevés tanító pontunk lesz, csak azt konstatálhatjuk − bár ezt kellő biztonsággal tehetjük −, hogy a hálónk meglehetősen gyengén tanulta meg a feladatot. Ekkor, mint ahogy a (2.14) összefüggésből is látható az eredő hiba variancia komponense lehet nagy. Az egyes részhalmazok közötti megfelelő arányok meghatározása meglehetősen nehéz feladat. Erre vonatkozó néhány eredményt, melyet Shun-ichi Amari és munkatársai dolgoztak ki [Ama97], a 4. fejezetben fogunk röviden bemutatni.

Az ellentmondás egy lehetséges feloldására ún. kereszt kiértékelési (cross validation) eljárás alkalmazható (pl. [Sto78]). Ennek során a rendelkezésre álló mintapontokat véletlenszerűen felosztjuk k diszjunkt részhalmazra, majd k-1 részhalmaz pontjait tanításra, a maradék részhalmaz pontjait pedig kiértékelésre használjuk. Az eljárást megismételjük az összes részhalmazra úgy, hogy a tanítópontok közül mindig más-más részhalmazt hagyunk ki és használunk kiértékelésre. A hálózat eredő minősítését az egyes kiértékelések átlagaként nyerjük. Az eljárás előnye, hogy a rendelkezésre álló pontok jelentős részét felhasználjuk a hálózat tanítására, miközben az eredő értékelést az összes pont alapján végezzük, de úgy, hogy egy adott tanítást követően a háló értékelése mindig csak olyan pontokkal történik, melyeket az adott tanításnál nem használtunk fel. Hátrányként a hosszabb számítási időt említhetjük, hiszen a feladatot most k-szor kell megtanítanunk. Nagyon kevés rendelkezésre álló pont esetén a részhalmazok száma megegyezhet a pontok számával (k=l), ekkor minden tanítás l-1 ponttal történik, a minősítésre pedig a kihagyott pontot használjuk. Az eljárást itt is l-szer végezzük el, tehát végül itt is az összes pont alapján történik a megtanított háló minősítése. A kereszt kiértékelést ebben az esetben egy-kihagyásos (leave-one-out, loo) eljárásnak hívjuk.

Az itt említett eljárások a tapasztalati hibát alkalmazzák a megtanított háló minősítésére. Láttuk azonban, hogy ha a tapasztalati hibát a tanításnál ténylegesen felhasznált pontokra számítjuk, az általánosítóképességről nem kapunk megbízható információt. Amennyiben viszont független tesztkészletet használunk, a rendelkezésre álló ismert válaszú pontok korlátozott száma okozhat nehézségeket. További gondot jelent, hogy, még ha a tanító készlettől független tesztkészletet használunk is a minősítésre, a tapasztalati hibát mindenképpen véges számú pont alapján számítjuk. A tapasztalati kockázat tehát csupán becslése a valódi kockázatnak, és − különösen kevés teszt adat mellett − a becslés nagyon pontatlan is lehet. Alapvetően fontos ezért annak a kérdésnek a megválaszolása, hogy a tapasztalati hiba alapján állíthatunk-e valamit a (2.7) összefüggéssel definiált valódi kockázatról, és ha igen, akkor ez milyen feltételek mellett tehető meg. Erre a kérdésre az elsősorban Vladimir Vapnik nevéhez fűződő statisztikus tanuláselmélet (statistical learning theory) ad választ, melynek alapjait a 2.3. alfejezetben foglaljuk össze.