Каб распазнаць, ці пераабсталявана мадэль, трэба разумець паняцце пераабсталявання і яго наступствы для машыннага навучання. Пераабсталяванне адбываецца, калі мадэль выключна добра працуе з навучальнымі данымі, але не можа абагульніць новыя, нябачныя даныя. Гэта з'ява шкодзіць прагназавальнай здольнасці мадэлі і можа прывесці да нізкай прадукцыйнасці ў рэальных сітуацыях. У кантэксце глыбокіх нейронавых сетак і ацэншчыкаў у Google Cloud Machine Learning існуе некалькі індыкатараў, якія могуць дапамагчы вызначыць празмернае абсталяванне.
Адной з агульных прыкмет перападбору з'яўляецца значная розніца паміж прадукцыйнасцю мадэлі на навучальных дадзеных і яе прадукцыйнасцю на праверцы або тэставых дадзеных. Калі мадэль пераабсталявана, яна "запамінае" навучальныя прыклады замест вывучэння асноўных шаблонаў. У выніку ён можа дасягнуць высокай дакладнасці на навучальным наборы, але з цяжкасцю робіць дакладныя прагнозы на новых дадзеных. Ацэньваючы прадукцыйнасць мадэлі на асобнай праверцы або тэставым наборы, можна ацаніць, ці адбылося пераабсталяванне.
Іншым прыкметай перападбору з'яўляецца вялікая розніца паміж частатой памылак пры навучанні і праверцы мадэлі. У працэсе навучання мадэль спрабуе мінімізаваць сваю памылку, рэгулюючы свае параметры. Аднак, калі мадэль становіцца занадта складанай або навучаецца занадта доўга, яна можа пачаць адпавядаць шуму ў навучальных даных, а не асноўным шаблонам. Гэта можа прывесці да нізкага ўзроўню памылак пры навучанні, але да значна большага ўзроўню памылак праверкі. Маніторынг тэндэнцыі гэтых узроўняў памылак можа дапамагчы вызначыць празмернае абсталяванне.
Акрамя таго, назіранне за паводзінамі функцыі страт мадэлі можа даць уяўленне аб пераабсталяванні. Функцыя страт вымярае разыходжанне паміж прадказанымі вынікамі мадэлі і фактычнымі мэтамі. У пераабсталяванай мадэлі функцыя страт на даных навучання можа працягваць змяншацца, у той час як страты на даных праверкі пачынаюць павялічвацца. Гэта сведчыць аб тым, што мадэль становіцца ўсё больш спецыялізаванай на навучальных прыкладах і губляе здольнасць да абагульнення.
Метады рэгулярызацыі таксама могуць быць выкарыстаны для прадухілення пераабсталявання. Рэгулярізацыя ўводзіць штрафны тэрмін для функцыі страт, не даючы мадэлі стаць занадта складанай. Такія метады, як рэгулярізацыя L1 або L2, адсеў або датэрміновае спыненне, могуць дапамагчы змякчыць празмернае абсталяванне, дадаючы абмежаванні працэсу навучання мадэлі.
Важна адзначыць, што на пераабсталяванне могуць уплываць розныя фактары, у тым ліку памер і якасць навучальных даных, складанасць архітэктуры мадэлі і выбраныя гіперпараметры. Такім чынам, вельмі важна ўважліва ацэньваць гэтыя фактары падчас навучання і ацэнкі мадэляў, каб пазбегнуць перападбору.
Распазнанне пераабсталявання ў глыбокіх нейронавых сетках і ацэншчыках прадугледжвае аналіз прадукцыйнасці праверкі або тэставых даных, маніторынг розніцы паміж частатой памылак навучання і праверкі, назіранне за паводзінамі функцыі страт і выкарыстанне метадаў рэгулярызацыі. Разумеючы гэтыя паказчыкі і прымаючы адпаведныя меры, можна змякчыць шкодныя наступствы пераабсталявання і пабудаваць больш надзейныя і абагульненыя мадэлі.
Іншыя апошнія пытанні і адказы адносна Глыбокія нейронныя сеткі і ацэншчыкі:
- Ці можна інтэрпрэтаваць глыбокае навучанне як вызначэнне і навучанне мадэлі на аснове глыбокай нейронавай сеткі (DNN)?
- Ці дазваляе структура Google TensorFlow павысіць узровень абстракцыі пры распрацоўцы мадэляў машыннага навучання (напрыклад, з заменай кадавання канфігурацыяй)?
- Ці правільна, што калі набор даных вялікі, трэба менш ацэнак, што азначае, што доля набору даных, якая выкарыстоўваецца для ацэнкі, можа быць зменшана з павелічэннем памеру набору даных?
- Ці можна лёгка кантраляваць (дадаючы і выдаляючы) колькасць слаёў і колькасць вузлоў у асобных слаях, змяняючы масіў, які падаецца ў якасці схаванага аргумента глыбокай нейронавай сеткі (DNN)?
- Што такое нейронныя сеткі і глыбокія нейронныя сеткі?
- Чаму глыбокія нейронавыя сеткі называюцца глыбокімі?
- Якія перавагі і недахопы дадання большай колькасці вузлоў у DNN?
- Што такое праблема знікаючага градыенту?
- Якія некаторыя недахопы выкарыстання глыбокіх нейронавых сетак у параўнанні з лінейнымі мадэлямі?
- Якія дадатковыя параметры можна наладзіць у класіфікатары DNN і як яны спрыяюць тонкай наладзе глыбокай нейронавай сеткі?
Больш пытанняў і адказаў глядзіце ў раздзеле "Глыбокія нейронныя сеткі і ацэншчыкі".