Jakim cudem świeżo wykluty pająk tka perfekcyjną pajęczynę, charakterystyczną dla swojego gatunku – nie widząc nawet takiej pajęczyny, nie mówiąc już o tym, że został przeszkolony w jej przędzeniu? Skąd motyle wiedzą, co robić? Dlaczego psy i koty zachowują się jak psy i koty? Dlaczego króliki zachowują się tak, jak się zachowują? Instynkt jest jedną z możliwych odpowiedzi. Ludzie, a zwłaszcza psychologowie, od dawna uważają, że instynkt jest ważnym czynnikiem determinującym zachowanie. Ale jak działa instynkt? Jakie są istotne mechanizmy, które pozwalają instynktowi funkcjonować tak jak on?
Obecnie mamy dobre zrozumienie tego, jak ludzie uczą się poprzez tworzenie pamięci. Ta informacja może być wykorzystana do zrozumienia, jak działa instynkt, ponieważ sztywne instynktowne zachowanie jest biegunowym przeciwieństwem elastycznego wyuczonego ludzkiego zachowania. Może nawet istnieć kontinuum uczenia się-pamięci o elastyczności synaptycznej, z ludźmi na jednym końcu i stworzeniami takimi jak pająki na drugim.
Oba końce kontinuum uczenia się-pamięci są adaptacyjne. Zależna od doświadczenia elastyczność przez dłuższy okres rozwoju umożliwia ludziom nabywanie złożonych umiejętności i inteligentnych zachowań. Ustalona sztywność pozwala uniknąć ryzyka i niebezpieczeństw związanych z rozwojem i rodzicielstwem, umożliwiając „dorosłe” zachowanie od samego początku – co prowadzi nas do tematu ewolucji.
Ewolucja
Instynkty oczywiście ewoluowały wraz z resztą organizmu dzięki tym samym zasadom zmienności i doboru naturalnego, które napędzają i wyjaśniają ewolucję filogenetyczną. Tutaj mówimy o ewolucji behawioralnej jako równoległej do ewolucji filogenetycznej. Wiemy, że DNA jest mechanizmem genetycznym, który pośredniczy w ewolucji filogenetycznej, ale czy może on być również odpowiedzialny za ewolucję behawioralną i instynkt? Jeśli tak, to jak dokładnie może to nastąpić? Jakie mechanizmy mogą pozwolić na dziedziczenie zachowań?
Informacje o mechanizmie
Komputerowe modele uczenia się i pamięci pozwalają nam lepiej zrozumieć, jak funkcjonują centralne istotne mechanizmy biologiczne, ponieważ symulacje animują związki przyczynowe. Szczególnym zainteresowaniem cieszy się to, jak szkolone są sztuczne sieci neuronowe (ANN) znane jako modele sieci neuronowych o równoległym rozproszonym przetwarzaniu koneksjonistycznym. Metody te omawiam w mojej książce (Tryon, 2014) Cognitive Neuroscience and Psychotherapy: Network Principles for a Unified Theory, ale podsumowuję je poniżej. Technologia ta jest znana jako uczenie maszynowe, ponieważ komputery mogą symulować ludzkie i zwierzęce uczenie się i pamięć. Technologia ta jest również określana mianem głębokiego uczenia się (deep learning) w uznaniu jej niezwykłej zdolności do symulowania ludzkiego poznania przy użyciu modeli koneksjonistycznych sieci neuronowych.
Do godnych uwagi osiągnięć w tym zakresie należy zaliczyć wygraną komputera Deep Blue firmy IBM w mistrzostwach szachowych przez człowieka w 1997 roku. Kiedy komputer IBM Watson wygrał z ludźmi mistrzostwa w Jeopardy w 2011 roku. Kiedy IBM’s Watson wygrał Heads-up no-limit Texas hold’em od ludzi w 2015 roku. Kiedy Deep Mind firmy Google wygrał z ludźmi mistrzostwa AlphaGo w 2016 roku. W niektórych z tych przypadków maszyny musiały nauczyć się „rozumieć” język naturalny tak dobrze jak ludzie. We wszystkich tych przypadkach maszyny musiały dostrzegać subtelne zależności, formułować strategie i robić to bardziej efektywnie niż najlepsi ludzcy eksperci. Bengio (2016) podsumował główne postępy w sztucznej inteligencji w popularnym magazynie Scientific American. Engelking (2017) dokonał przeglądu postępów dokonywanych przez Allen Institute for Artificial Intelligence; największy w kraju instytut nonprofit zajmujący się sztuczną inteligencją, założony w 2014 roku, w magazynie Discover.
Przyjrzyjrzyjmy się bliżej istotnym mechanizmom, które umożliwiają uczenie się poprzez tworzenie pamięci. Dyskusję ograniczam do podstawowych zasad, aby nie wdawać się w zbyt wiele technicznych szczegółów. Zasady te odnoszą się zarówno do symulacji sieci neuronowych, jak i do systemów biologicznych. Wierzę, że te zasady są wystarczające dla Ciebie, aby ogólnie zrozumieć, jak instynkty mogą działać.
Pierwszą zasadą jest to, że systemy nerwowe są sieciami sieci neuronowych składających się z wielu neuronów. Ludzi szacuje się, że mają 100 miliardów neuronów. Szacuje się, że nawet układy nerwowe pająków mają około 100 000 neuronów. Każdy ludzki neuron łączy się z wieloma innymi neuronami. W niektórych przypadkach jeden ludzki neuron może łączyć się nawet z 10 000 innych neuronów. Szacuje się, że ludzki mózg zawiera 100 trylionów synaps. Wiemy, że genetyka, DNA, jest odpowiedzialna za budowanie sieci neuronowych podczas rozwoju embrionalnego. Wiemy również, że różne stworzenia mają różne DNA, które jest odpowiedzialne za ich różne systemy nerwowe.
Druga zasada jest taka, że neurony u wszystkich gatunków są połączone z innymi neuronami przez synapsy, maleńkie szczeliny, do których wydzielane są neuroprzekaźniki. Niektóre z tych neuroprzekaźników ułatwiają przewodzenie prądu elektrycznego z jednego neuronu do drugiego. Inne neuroprzekaźniki hamują przewodzenie prądu elektrycznego z jednego neuronu do drugiego. Wiemy, że genetyka, DNA, jest odpowiedzialna za budowę tych synaps. Dlatego wydaje się całkiem możliwe, że właściwości pobudzające/hamujące synapsy mogą być ustalone podczas ich budowy, a nie modyfikowane przez doświadczenie. Ta możliwość jest kluczowa dla wyjaśnienia działania instynktów, przedstawionego poniżej. Można ją wprowadzić w życie poprzez wyciszenie lub usunięcie genów, które umożliwiają zależną od doświadczenia elastyczność synaptyczną.
Wielka część wiedzy naukowej wspiera pogląd, że synapsy są centralne dla uczenia się i pamięci (Hell & Ehlers, 2008). Elastyczne uczenie się człowieka wymaga, aby właściwości pobudzające/hamujące synaps mogły być ustalane przez zależne od doświadczenia mechanizmy plastyczności synaptycznej. Sztuczne sieci neuronowe, takie jak te zaangażowane we wspomniane wyżej mistrzostwa komputerowe, symulują prymitywne układy nerwowe za pomocą komputerów lub chipów neuromorficznych. Symulowane neurony są połączone ze sobą za pomocą symulowanych synaps zwanych wagami połączeń, ponieważ matematycznie łączą one symulowane neurony ze sobą. Wejścia do tych ANN początkowo nie skutkują sensownymi, pożądanymi wyjściami, ponieważ symulowane synapsy nie są jeszcze ustawione na optymalnym poziomie. Równania są używane do symulowania biologicznych mechanizmów plastyczności zależnych od doświadczenia. Są one używane do stopniowej zmiany i optymalizacji wag połączeń podczas symulowanych prób uczenia się, tak aby ANN w końcu działał efektywnie, jak to zilustrowano w mistrzostwach komputerowych wspomnianych powyżej. Centralnym punktem zainteresowania jest tutaj fakt, że zdolność w pełni wytrenowanego „dorosłego” ANN do prawidłowego wykonywania wszystkich cudownych funkcji, które może on wykonywać, jest bezpośrednio zależna od ostatecznych poziomów pobudzenia/zahamowania, które charakteryzują symulowane synapsy. Problem ustawienia wszystkich wag połączeń na optymalnych poziomach jest zbyt skomplikowany, aby zaprogramować go bezpośrednio. Aby symulowane poziomy synaptyczne osiągnęły optymalne stany, konieczny jest proces sprzężenia zwrotnego napędzany doświadczeniem. Zanim ANN zacznie działać na wysokim poziomie, zwykle wymagany jest intensywny trening. Podobny proces modyfikacji synaptycznej napędzany doświadczeniem umożliwia każdą umiejętność poznawczą i motoryczną, którą ludzie nabywają poprzez learning.
Instynkt wydaje się ustawiać połączenia synaptyczne do „dorosłych” wartości podczas embriologii. Oznacza to, że geny, które są odpowiedzialne za konstruowanie synaps w ramach sieci neuronowych, które pośredniczą w instynkcie, wydają się również ustawiać ich właściwości funkcjonalne do optymalnych poziomów pobudzenia lub hamowania, które replikują to, co zostałoby osiągnięte, gdyby sieć przeszła przez rygorystyczną i kompleksową fazę uczenia się rozwojowego. DNA wydaje się kodować ostateczne „dorosłe” wartości synaptyczne w przypadku pająków, u których instynkt zdaje się dominować w zachowaniu. Genetyka wydaje się wywierać mniejszy, ale wciąż godny uwagi wpływ w tym, co nazywamy biologicznie przygotowanymi zachowaniami, takimi jak nasze lęki wysokości i ciemności.
Sprawność DNA do prezentowania właściwości poszczególnych synaps w złożonych sieciach neuronalnych wyjaśnia, jak zachowania mogą być dziedziczone. Wyjaśnia to, jak pająki mogą tkać złożone sieci wkrótce po wykluciu. Wyjaśnia również, dlaczego psy i koty zachowują się inaczej. Zmienność genetyczna wyjaśnia indywidualne różnice behawioralne – innymi słowy, dlaczego pająki tego samego gatunku mogą zachowywać się nieco inaczej lub dlaczego poszczególne psy i koty różnią się temperamentem.
.