Показати скорочений опис матеріалу

dc.contributor.authorХабарлак, К. С.
dc.date.accessioned2022-01-13T08:00:28Z
dc.date.available2022-01-13T08:00:28Z
dc.date.issued2021
dc.identifier.citationХабарлак К. С. Аналіз шаблонів адаптації мета-навчання / К. С. Хабарлак // Молодь: наука та інновації : матеріали 9-ої всеукр. наук.-техн. конф. студентів, аспірантів і молодих учених, м. Дніпро, 11-12 листопада 2021 р. – Дніпро : НТУ ДП, 2021.- С. 325-326uk_UA
dc.identifier.urihttp://ir.nmu.org.ua/handle/123456789/159875
dc.description.abstractНейронні мережі показують значну якість вирішення багатьох практичних задач. Насамперед це задачі класифікації зображень, де якість згорткових нейронних мереж має надзвичайно малу помилку. Такі результати досягаються за допомогою навчання на великій розміченій вибірці даних. Однак, для кожної окремої практичної задачі таку вибірку необхідно зібрати та вручну розмітити, що в свою чергу вимагає значного вкладення людських та грошових ресурсів. Для ряду нових проблем збір великої якісно розміченої вибірки і зовсім неможливих – таких даних просто може ще не бути в наявності. Одним із підходів до зменшення необхідної навчальної вибірки є так зване мета-навчання. Одним із ключових алгоритмів є Model-Agnostic Meta-Learning (MAML), опис якого було наведено в роботі [1]. Що ж собою являє мета-навчання? Звичайні мережі для класифікації зображень навчаються на окремих зображення. Одна ітерація алгоритму мінімізує помилку на таких зображеннях. В мета-навчанні однією ітерацією є так звана «задача». Задача складається із набору «підтримки» та «запитів». Кожна із задач має різні класи (ярлики), що необхідно класифікувати. Це значно відрізняє мета-навчання від звичного навчання. За допомогою такої схеми очікується, що алгоритм навчиться швидко пристосовуватися до нових задач та вивчить ознаки, що властиві не тільки декільком фіксованим класам, а всім класам в цілому. Так, зазвичай, для мета-навчання достатньої 1-10 навчальних прикладів на клас, коли для звичайного необхідно зібрати сотні або тисячі прикладів. MAML є одним із прикладів оптимізаційного мета навчання – це значить, що для того, щоб навчити довільну нейронну мережу за описаною вище процедурою, достатньо змінити оптимізаційну задачу, а архітектура мережі залишиться незмінною. Для MAML алгоритм оптимізації розподіляється на 2 частини: адаптація до нової задачі і навчання мета-параметрів. MAML є одним із найбільш широко використовуваних методів мета-навчання, однак його недоліком є повільний час виконання фази адаптації. В роботі [2] було показано ряд практично-значних задач для яких час виконання нейронної мережі грає ключову роль. В цій роботі ми зменшимо час виконання алгоритму MAML.uk_UA
dc.language.isoukuk_UA
dc.publisherНТУ ДПuk_UA
dc.subjectмета-навчанняuk_UA
dc.subjectнейронна мережаuk_UA
dc.subjectшаблонuk_UA
dc.titleАналіз шаблонів адаптації мета-навчанняuk_UA
dc.typeArticleuk_UA
dc.identifier.udk004.93uk_UA


Долучені файли

Thumbnail

Даний матеріал зустрічається у наступних фондах

Показати скорочений опис матеріалу