Аргумент схаваных адзінак у глыбокіх нейронавых сетках адыгрывае вырашальную ролю ў магчымасці налады памеру і формы сеткі. Глыбокія нейронавыя сеткі складаюцца з некалькіх слаёў, кожны з якіх складаецца з набору схаваных блокаў. Гэтыя схаваныя блокі адказваюць за фіксацыю і прадстаўленне складаных адносін паміж уваходнымі і выходнымі дадзенымі.
Каб зразумець, як аргумент схаваных адзінак дазваляе наладжваць, нам трэба паглыбіцца ў структуру і функцыянаванне глыбокіх нейронавых сетак. У тыповай глыбокай нейронавай сетцы ўваходны ўзровень атрымлівае неапрацаваныя ўваходныя даныя, якія затым праходзяць праз шэраг схаваных слаёў, перш чым дасягнуць выхаднога ўзроўню. Кожны схаваны ўзровень складаецца з некалькіх схаваных блокаў, і гэтыя блокі злучаны з блокамі ў папярэднім і наступных пластах.
Колькасць схаваных блокаў на кожным узроўні, а таксама колькасць слаёў у сетцы можна наладзіць у залежнасці ад канкрэтнай праблемы. Павелічэнне колькасці схаваных блокаў у пласце дазваляе сетцы фіксаваць больш складаныя ўзоры і адносіны ў дадзеных. Гэта можа быць асабліва карысна пры працы з вялікімі і складанымі наборамі даных.
Акрамя таго, форму сеткі таксама можна наладзіць шляхам рэгулявання колькасці слаёў. Даданне большай колькасці слаёў у сетку дазваляе ёй вывучаць іерархічныя прадстаўленні даных, дзе кожны ўзровень фіксуе розныя ўзроўні абстракцыі. Такое іерархічнае прадстаўленне можа быць карысным у такіх задачах, як распазнаванне вобразаў, дзе аб'екты могуць быць апісаны камбінацыяй нізкаўзроўневых функцый (напрыклад, краёў) і паняццяў высокага ўзроўню (напрыклад, формаў).
Напрыклад, разгледзім глыбокую нейронавую сетку, якая выкарыстоўваецца для класіфікацыі малюнкаў. Уваходны пласт атрымлівае піксельныя значэнні выявы, а наступныя схаваныя пласты фіксуюць усё больш складаныя ўзоры, такія як краю, тэкстуры і формы. Канчатковы схаваны пласт аб'ядноўвае гэтыя шаблоны, каб зрабіць прагноз адносна класа выявы. Наладжваючы колькасць схаваных блокаў і слаёў, мы можам кантраляваць здольнасць сеткі фіксаваць розныя ўзроўні дэталізацыі і складанасці малюнкаў.
У дадатак да налады памеру і формы аргумент схаваных адзінак таксама дазваляе наладжваць функцыі актывацыі. Функцыі актывацыі вызначаюць выхад схаванага блока на аснове яго ўваходу. Розныя функцыі актывацыі могуць быць выкарыстаны для ўвядзення нелінейнасці ў сетку, дазваляючы ёй вывучаць і прадстаўляць складаныя адносіны ў дадзеных. Агульныя функцыі актывацыі ўключаюць сігмаід, тань і выпрамленую лінейную адзінку (ReLU).
Аргумент схаваных адзінак у глыбокіх нейронных сетках забяспечвае гібкасць у наладжванні памеру і формы сеткі. Рэгулюючы колькасць схаваных блокаў і слаёў, а таксама выбіраючы функцыі актывацыі, мы можам наладзіць здольнасць сеткі захопліваць і прадстаўляць асноўныя шаблоны і адносіны ў даных.
Іншыя апошнія пытанні і адказы адносна Глыбокія нейронныя сеткі і ацэншчыкі:
- Ці можна інтэрпрэтаваць глыбокае навучанне як вызначэнне і навучанне мадэлі на аснове глыбокай нейронавай сеткі (DNN)?
- Ці дазваляе структура Google TensorFlow павысіць узровень абстракцыі пры распрацоўцы мадэляў машыннага навучання (напрыклад, з заменай кадавання канфігурацыяй)?
- Ці правільна, што калі набор даных вялікі, трэба менш ацэнак, што азначае, што доля набору даных, якая выкарыстоўваецца для ацэнкі, можа быць зменшана з павелічэннем памеру набору даных?
- Ці можна лёгка кантраляваць (дадаючы і выдаляючы) колькасць слаёў і колькасць вузлоў у асобных слаях, змяняючы масіў, які падаецца ў якасці схаванага аргумента глыбокай нейронавай сеткі (DNN)?
- Як распазнаць, што мадэль пераабраная?
- Што такое нейронныя сеткі і глыбокія нейронныя сеткі?
- Чаму глыбокія нейронавыя сеткі называюцца глыбокімі?
- Якія перавагі і недахопы дадання большай колькасці вузлоў у DNN?
- Што такое праблема знікаючага градыенту?
- Якія некаторыя недахопы выкарыстання глыбокіх нейронавых сетак у параўнанні з лінейнымі мадэлямі?
Больш пытанняў і адказаў глядзіце ў раздзеле "Глыбокія нейронныя сеткі і ацэншчыкі".