I. Czy komputer może myśleć?
Na tak postawione pytanie można odpowiedzieć jednym słowem i więcej tym się nie przejmować. Wiele osób pewnie by tak zrobiło. Powiedzieliby że nie, i być może mieliby rację.
Ale co to właściwie znaczy „myśleć”? Nie będę tu próbował podawać definicji (problemem definicji pojęć będziemy zajmowali się w następnym rozdziale), chcę tylko, aby w tym miejscu uświadomić sobie, że odpowiedź na pytanie, czy komputer może myśleć, jest zależna od tego, jak zdefiniujemy pojęcie „myślenie”.
Bez względu na to, jaką definicję „myślenia” przyjmiemy, większość ludzi zgodzi się z tym, że człowiek myśli. Ale kiedy i w jaki sposób zaczyna myśleć? Dziecko musi mieć zmysły, którymi odbiera bodźce i musi mieć mózg, który na te bodźce reaguje.
Jeżeli niemowlę na coś patrzy, obraz na siatkówce jest zdeformowany i jest obrócony do góry nogami. Mózg musi nauczyć się ułożyć obraz oglądanego przedmiotu na podstawie bodźców wzrokowych, oddzielić go od jego otoczenia i utworzyć jego model.
Dużo lepszy model danego przedmiotu może uzyskać, jeżeli będzie miało do dyspozycji następne niezależne źródło informacji, na przykład dotyk. Sposób w jaki postrzegamy daną rzecz zależy od tego, jakie mamy zmysły.
Jeżeli człowiek urodzi się ślepy, jego wyobrażenie o świecie będzie inne niż większości ludzi, ale nikt nie wątpi w jego umiejętność myślenia. Gdyby jednak urodził się nie tylko ślepy, ale też głuchy, bez węchu, bez dotyku i innych zmysłów? Bez żadnych bodźców myślenie by prawdopodobnie nie powstało. Jakie zmysły minimalnie musiałby posiadać, aby mógł nawiązać kontakt z otoczeniem i nauczyć się myśleć? W tej chwili nie chodzi nam o to, by zdecydować, jakie minimalne warunki muszą być spełnione, aby mogło powstać myślenie, tylko aby uświadomić sobie, że w pewnych warunkach mogłoby powstać coś, co można już nazwać myśleniem i jednocześnie byłoby to coś bardzo różniącego się od tego, co zwykle rozumiemy pod tym pojęciem.
W przypadku komputera musimy pójść jeszcze dalej. Nie chodzi o to, by komputer myślał podobnie jak człowiek, chcemy tylko, aby wykonywał taką czynność, którą moglibyśmy już nazwać (prymitywnym) myśleniem.
Jeżeli chcielibyśmy, by komputer myślał jak człowiek, by postrzegał i rozumiał nasz świat, musielibyśmy dać mu podobne zmysły, by widział, słyszał, wąchał, dotykał, może też musiałby odczuwać głód i strach, podobnie jak człowiek. Musielibyśmy zapewnić mu ludzkie wychowanie i spełnić jeszcze dużo innych warunków – praktycznie stworzyć robota bardzo podobnego do człowieka. O to nam jednak w tej chwili nie chodzi.
W jaki sposób rozumieć w takim razie słowo „myśleć” w odniesieniu do komputera? Każdy może mieć swoje zdanie, ale w tej chwili możemy przyjąć następujące stanowisko: żeby można było powiedzieć, że komputer myśli, będziemy od niego wymagać zdolności operowania pojęciami. Nie jest konieczne, aby to były pojęcia, jakich używają ludzie. Powinien tylko rozumieć ich znaczenie. Tu powstaje nowy problem: Co ma znaczyć wyrażenie „rozumieć coś” w przypadku komputerów? Na razie nie wymagamy od nich świadomości ani zdolności wyobrażenia sobie czegoś. Wyobraźnia być może nie jest konieczna. Fizyk kwantowy lub matematyk też może operować obiektami, których nie potrafi sobie wyobrazić. Uważamy, że je rozumie, kiedy potrafi nimi prawidłowo operować. Na początek wyrażenie „rozumieć coś” będziemy interpretowali tak, że wystarczy mieć stworzony model zawierający dla każdego pojęcia odpowiedni obiekt, który ma zdefiniowane właściwości i relacje w stosunku do innych obiektów modelu. To jest wystarczające do tego, żeby było możliwe odpowiadanie na pytania w ramach tego modelu.
Do tego, żeby powiedzieć, że komputer myśli, będziemy wymagali nieco więcej. Będziemy chcieli żeby miał zdolność zmieniania swojego modelu świata, uzupełniania albo budowania go całkowicie od nowa w ten sposób, aby potrafił otrzymać odpowiedzi także na takie pytania, na które wcześniej nie potrafił odpowiedzieć.
Można przyjąć też inne warunki lub wymagania dla stwierdzenia, czy komputer jest inteligentny. Na przykład test Turinga, według którego system jest inteligentny, jeżeli potrafi odpowiadać na pytania w języku naturalnym w taki sposób, że osoba zadająca pytania nie potrafi rozpoznać, czy rozmawia z maszyną czy z człowiekiem. Warunek, że sztuczna inteligencja ma być nierozróżnialna od naturalnej, uważam za ogromne ograniczenie pojęcia inteligencji. Nie uwzględnia to żadnej inteligencji zwierząt ani programów, które już wykazują jakiś stopień inteligencji, ale też przypadku maszyny, która potrafiłaby odpowiadać natychmiast i bezbłędnie na wszystkie pytania. Żeby taka maszyna była nierozróżnialna od człowieka, konieczne byłoby sztuczne wydłużanie czasu odpowiedzi w taki sposób, żeby odpowiadał długości czasu odpowiedzi człowieka. Od czasu do czasu musiałaby specjalnie pomylić się lub stwierdzić, że nie zna odpowiedzi. Nawet jakby nikt nie potrafił odróżnić odpowiedzi maszyny od odpowiedzi człowieka, wiele osób i tak nie uważałoby tego za dowód na to, że maszyna myśli. Kryteria zmieniłyby się. Podobnie, jak to było w przypadku szachów. Dopóki najlepsi gracze wygrywali z komputerami, uznawano to za dowód wyższości ludzkiej inteligencji nad niemyślącymi maszynami. Ale od czasu, kiedy komputery zaczęły wygrywać nawet z mistrzem świata, nagle okazało się, że nie jest to już dowód przewagi niemyślącej maszyny nad ludzką inteligencją.
Dlaczego sztuczna inteligencja miałaby być nierozróżnialna od ludzkiej? Nie stawiamy takich wymagań na przykład sztucznej nodze. Jeszcze nie tak dawno zamiast dolnej kończyny wystarczył kawałek drewna, a dzisiaj istnieją protezy, na których można biegać szybciej niż na zdrowych nogach, i nikt nie wymaga, by sztuczne nogi były nierozróżnialne od naturalnych. Każdy może od razu stwierdzić, że są sztuczne.
Każdy może sam ustalić, jakie kryteria przyjąć, by móc rozstrzygnąć czy maszyna myśli. My będziemy trzymać się jak najogólniejszej definicji i szukać pierwszych oznak inteligencji.
Najpierw zastanówmy się, jak powstają pojęcia, na ile są niedokładne i jaka jest nadzieja na to by komputer przynajmniej niektóre pojęcia rozumiał w sposób podobny do naszego sposobu rozumienia.