Przez dziesięciolecia superinteligentna sztuczna inteligencja (AI) była stałym elementem science fiction, ucieleśnionym w książkach i filmach o androidach, buntach robotów i świecie przejętym przez komputery. Choć te fabuły często były naciągane, grały na bardzo realnym miksie fascynacji, ciekawości i obaw dotyczących potencjału budowy inteligentnych maszyn.
Dziś zainteresowanie sztuczną inteligencją jest na rekordowym poziomie. Wraz z nagłówkami z ostatnich miesięcy o generatywnych systemach AI, takich jak ChatGPT, do szerszego dialogu zaczyna wkraczać inna fraza: sztuczna inteligencja ogólna, czyli AGI. Ale czym dokładnie jest AGI i jak blisko są dzisiejsze technologie jej osiągnięcia?
Pomimo podobieństwa fraz generatywna AI i sztuczna inteligencja ogólna, mają one bardzo różne znaczenia. Jak wyjaśnia post na blogu IBM, „Generatywna AI odnosi się do modeli głębokiego uczenia, które mogą generować wysokiej jakości tekst, obrazy i inne treści na podstawie danych, na których były trenowane”. Jednak zdolność systemu AI do generowania treści niekoniecznie oznacza, że jego inteligencja jest ogólna.
Aby lepiej zrozumieć sztuczną inteligencję ogólną, warto najpierw zrozumieć, jak różni się ona od dzisiejszej AI, która jest wysoko wyspecjalizowana. Na przykład program AI do gry w szachy jest niezwykle dobry w graniu w szachy, ale jeśli poprosisz go o napisanie eseju na temat przyczyn I wojny światowej, nie będzie zbyt przydatny. Jego inteligencja jest ograniczona do jednej konkretnej dziedziny. Inne przykłady specjalizowanej AI to systemy, które dostarczają rekomendacje treści na platformie mediów społecznościowych TikTok, decyzje nawigacyjne w samochodach bez kierowcy i rekomendacje zakupów od Amazon.
Podczas gdy definicja OpenAI wiąże AGI z zdolnością do „przewyższania ludzi w większości ekonomicznie wartościowej pracy”, dzisiejsze systemy są od tego bardzo daleko. Weźmy na przykład listę najczęstszych zawodów w USA według Indeed. W marcu 2023 roku pierwsze 10 zawodów na tej liście to: kasjer, pracownik przygotowujący jedzenie, magazynier, robotnik, sprzątacz, pracownik budowlany, księgowy, kelner, asystent medyczny i barman. Te zawody wymagają nie tylko zdolności intelektualnych, ale co kluczowe, większość z nich wymaga znacznie większej zręczności manualnej, niż potrafią osiągnąć najbardziej zaawansowane systemy robotyki AI.
Żadna z innych definicji AGI w tabeli nie wspomina konkretnie o wartości ekonomicznej. Innym kontrastem widocznym w tabeli jest to, że podczas gdy definicja OpenAI AGI wymaga przewyższania ludzi, inne definicje wymagają tylko, aby AGI działało na poziomach porównywalnych do ludzkich. Wszystkie definicje, jawnie lub domyślnie, zawierają koncepcję, że system AGI może wykonywać zadania w wielu dziedzinach, dostosowywać się do zmian w swoim otoczeniu i rozwiązywać nowe problemy – nie tylko te, na których był trenowany.
GPT-4 i co dalej
Chociaż obecnie dostępna dla publiczności wersja GPT-4 jest imponująca, to nie jest koniec drogi. Istnieją grupy pracujące nad dodatkami do GPT-4, które są bardziej ukierunkowane na cel, co oznacza, że możesz dać systemowi instrukcję, taką jak „Zaprojektuj i zbuduj stronę internetową na (temat)”. System następnie samodzielnie ustali, jakie podzadania muszą być wykonane i w jakiej kolejności, aby osiągnąć ten cel. Dzisiaj te systemy nie są szczególnie niezawodne, ponieważ często nie udaje im się osiągnąć wyznaczonego celu. Ale na pewno będą lepsze w przyszłości.
W artykule z 2020 roku Yoshihiro Maruyama z Australian National University zidentyfikował osiem atrybutów, które system musi posiadać, aby można go było uznać za AGI: logikę, autonomię, odporność, integralność, moralność, emocje, ucieleśnienie i osadzenie. Dwa ostatnie atrybuty – ucieleśnienie i osadzenie – odnoszą się do posiadania fizycznej formy, która ułatwia naukę i zrozumienie świata i zachowań ludzkich, oraz głębokiej integracji z systemami społecznymi, kulturowymi i środowiskowymi, która pozwala na dostosowanie się do ludzkich potrzeb i wartości.
Można argumentować, że ChatGPT wykazuje niektóre z tych atrybutów, takie jak logika. W przypadku innych atrybutów, ustalenie jest związane z filozofią tak bardzo, jak z technologią. Na przykład, czy system, który jedynie wykazuje to, co wydaje się być moralnością, jest rzeczywiście moralny? Jeśli poproszony o jednosłowną odpowiedź na pytanie „czy morderstwo jest złe?”, GPT-4 odpowie „Tak”. Jest to moralnie poprawna odpowiedź, ale nie oznacza to, że GPT-4 ma moralność, ale raczej że wywnioskowało moralnie poprawną odpowiedź na podstawie swoich danych treningowych.
Kluczową subtelnością, która często ginie w dyskusji na temat „jak blisko jest AGI?”, jest to, że inteligencja istnieje na kontinuum, a zatem ocena, czy system wykazuje AGI, będzie wymagała rozważenia kontinuum. W tym punkcie badania nad inteligencją zwierząt oferują użyteczny analog. Rozumiemy, że inteligencja zwierząt jest zbyt skomplikowana, abyśmy mogli sensownie przekazać zdolności poznawcze zwierząt, klasyfikując każdy gatunek jako „inteligentny” lub „nieinteligentny”: Inteligencja zwierząt istnieje na spektrum, które obejmuje wiele wymiarów, a jej ocena wymaga rozważenia kontekstu. Podobnie, gdy systemy AI stają się bardziej zdolne, ocena stopnia, w którym wykazują one uogólnioną inteligencję, będzie obejmować coś więcej niż tylko wybór między „tak” a „nie”.