The Illusions of AI
Serge Belongie
»Is something troubling you?«
ELIZA hed den første chatbot, der for alvor fik os til at tro, at den havde menneskelige egenskaber.
I 1966 blev den udviklet som en slags tekstbaseret psykoterapeut af datalogen Joseph Weizenbaum, der forskede i kommunikationen mellem menneske og maskine på MIT. Som en slags psykologisk spejl kunne ELIZA vende en sætning tilbage mod sin bruger og til trods for sin programmerede natur efterlade én med en følelse af at blive mødt med forståelse og empati.
Derfor har dataloger, AI-forskere og psykologer døbt det ELIZA-effekten, når vi tilskriver computerprogrammer og sprogmodeller som ChatGPT menneskelige træk.
Men hvor forskellig er den kunstige intelligens i grunden fra vores menneskelige kløgt? Hvad er det, vi – særligt i tekstbaserede AIs – bliver ved med at genkende og identificere os med? Og hvis sprogmodellerne minder så meget om os, hvorfor forstår de os så ikke bedre?
Det er nogle af de spørgsmål, professor i datalogi og AI-forsker Serge Belongie forsøger at besvare i sin forskning i kunstig intelligens.
For måske fører ELIZA-effekten til, at vi misforstår de store sprogmodeller og deres egentlige potentiale. Som ekspert i machine learning taler Belongie for, at der er en afgørende forskel på maskinernes mønstergenkendelse og intelligens i menneskelig forstand. Og samtidig er han som leder af Danmarks største center for AI-forskning bedre opdateret end de fleste på, hvor udviklingen af kunstig intelligens er på vej hen.