Podsumowanie

Przedstawiono, z konieczności w dużym skrócie, jak można budować różne modele z użyciem sieci neuropodobnych. Najwięcej uwagi poświęcono problemowi uczeni sieci, gdyż stanowi on od w istocie klucz do wszelkich technik neuronowego modelowania. Przedstawiony przegląd metod uczenia sieci neuropodobnych z pewnością nie jest kompletny ani wyczerpujący. Nie omówiono m.in. takich ważnych podejść, jak:

a także wielu "egzotycznych" algorytmów, które niemal każdego dnia przynosi literatura poświęcona problematyce sieci neuropodobnych. Nie było jednak celem tej pracy przedstawianie wyczerpującego studium problemu, lecz zwrócenie uwagi badaczy (szczególnie tych, którzy dopiero zaczynają swoją przygodę z sieciami neuropodobnymi) na fakt, że zbyt jednostronne ograniczanie rozważań — wyłącznie do możliwości, jakie oferuje algorytm backpropagation, może prowadzić do niepowodzeń przy stosowaniu sieci neuropodobnych, podczas gdy sięgnięcie do nowych metod uczenia — w istotnym stopniu zwiększa prawdopodobieństwo uzyskania zadowalających rozwiązań — i to z reguły po znacząco krótszym czasie uczenia. Przedstawione w artykule algorytmy powinny skłonić osoby stosujące sieci neuronowe do tego, by zdecydowały się spojrzeć na problem uczenia sieci w sposób mniej rutynowy i bardziej elastyczny, co z pewnością się opłaci, ponieważ, co warto jeszcze raz podkreślić, proces uczenia jest kluczem do sukcesu we wszystkich zastosowaniach sieci neuropodobnych.

Spróbujemy też na koniec wypowiedzieć ogólny sąd o całej technice modelowania sieci neuropodobnych. Niektórzy badacze formułują bardzo mocne twierdzenie, głoszące, iż nieliniowa sieć o dowolnej liczbie elementów i o dowolnej liczbie warstw może być modelem dowolnego zjawiska, albo — wyrażając to samo w innej terminologii — że sieć może aproksymować dowolną funkcję. Takie "mocne" twierdzenia pobudzają zwykle aktywność różnych pedantów, którzy usiłują koniecznie wymyślić tak skomplikowaną funkcję, żeby sieć neuropodobna w żaden sposób nie mogła się jej nauczyć. Z kolei zwolennicy "mocnej omnipotencjalności" sieci neuropodobnych pokazują wtedy koncepcje sieci o jakichś nieprawdopodobnie wielkich ilościach elementów, które jednak z dowolnie dużą dokładnością mogą odtwarzać takie złożone i dziwaczne funkcje. Trwa więc pewien wyścig absurdów: czy uda się sceptykom wymyślić tak dziwaczną funkcję, że jej neuronową aproksymacją nie da się w żaden sposób "ugryźć", czy też "sportowo" nastawieni twórcy rekordowo wielkich (i przez to niesłychanie wolno uczących się) nieliniowych sieci neuropodobnych zdołają dla każdej z tych funkcji wymyślić jej neuronową realizację. Wszystko to coraz bardziej oddala się od rzeczywistych problemów i potrzeb wynikających z praktyki i ta eskalacja absurdów nie służy postępowi zastosowań sieci. Wydaje się przeto, że celowe jest formułowanie na gruncie techniki sieci neuropodobnych praktycznej tezy, która brzmi: można z dużym poziomem wiarygodności twierdzić, że sieci neuropodobne są w stanie zadowalająco modelować każdą dostatecznie gładką i regularną funkcję. Teza ta jest, z punktu widzenia prowadzonych tu rozważań, całkowicie wystarczająca, gdyż zdecydowana większość rzeczywistych zjawisk i procesów (fizycznych, biologicznych, gospodarczych itp.) ma wystarczająco regularny przebieg, żeby z powodzeniem mieścić się w obrębie wyżej zdefiniowanej klasy funkcji dostatecznie gładkich. Nawet lokalne nieciągłości ("katastrofy") występujące w opisie niektórych zjawisk nie są przy tym przeszkodą nie do przebycia dla neuropodobnych modeli, zawodzą one dopiero wtedy, gdy ktoś usiłuje zdefiniować funkcję złożoną z ogromnej liczby szybko po sobie następujących katastrof — czyli w sytuacji, gdy to, co winno być wyjątkiem, staje się regułą.

Copyright © 1997-2024 Wydawnictwo Naukowe PWN SA
infolinia: 0 801 33 33 88