Тој се плаши дека светот наскоро ќе има системи за вештачка интелигенција кои немаат свест во вистинска смисла на зборот, но ќе ја имитираат толку добро што луѓето ќе почнат да веруваат дека моделите на вештачка интелигенција имаат личност.
Според Сулејман, тоа не е безопасно. Веќе има случаи каде што корисниците ги перцепираат чет-ботовите како божества, се заљубуваат во нив, развиваат зависности и други опасни емоционални врски.
„Ако луѓето почнат да веруваат дека вештачката интелигенција може да страда и да заслужува права, ќе отвориме нова оска на поделба во општество кое е веќе заситено со конфликти околу идентитетот и правата“, предупредува експерт на Microsoft.
Сулејман верува дека таканаречената свесна вештачка интелигенција може да се појави само ако програмерите намерно ја дизајнираат – проткајувајќи ја со меморија, емпатија, па дури и „желби“ – и тоа е сценарио што тој сака да го запре на време.
„Симулацијата на свеста не е исто што и свеста, исто како што компјутерската симулација на бура не значи дека надвор врне“, додава тој.
Спротивно на тоа, истражувачите од компаниите Антропик и Елеос тврдат дека не е лошо да се биде „учтив“ кон моделите на вештачка интелигенција. Според нив, ова може да ги намали ризиците и да им помогне на луѓето да се однесуваат поодговорно со своите дигитални алатки.
Сулејман не се согласува со тоа. Неговата визија е вештачка интелигенција која им помага на луѓето да бидат покреативни, попродуктивни и поврзани со реалниот свет – но никогаш вештачка интелигенција која тврди дека има чувства, желби или право на живот.
Вештачката интелигенција станува сè подобра во комуникацијата со луѓето, па затоа линијата помеѓу „алатка“ и „личност“ ќе станува сè помалку јасна. И тоа ќе биде едно од клучните прашања на следната деценија.