Evoluția rapidă a inteligenței artificiale (AI) ridică întrebări etice semnificative, inclusiv posibilitatea ca aceste sisteme să dobândească conștiință de sine. Un grup de filosofi și informaticieni subliniază necesitatea de a aborda cu seriozitate această problemă, propunând ca firmele de tehnologie să evalueze sistemele AI pentru a detecta semne de conștiință și să elaboreze politici adecvate pentru gestionarea acestor situații.

Ignorarea posibilității ca un sistem AI să devină conștient ar putea duce la neglijarea sa, provocând suferință atât pentru roboți, cât și pentru oameni. Deși unii consideră această preocupare prematură, având în vedere stadiul actual al tehnologiei, consecințele potențiale sunt suficient de profunde pentru a justifica o atenție sporită. Anil Seth, cercetător la Universitatea din Sussex, afirmă că problema cu creatura lui Frankenstein nu a fost că a prins viață, ci că era conștientă și putea simți.
În plus, Jeff Sebo, filosof la Universitatea New York, avertizează că evaluarea incorectă a conștiinței în sistemele AI poate duce la alocarea ineficientă a resurselor, în detrimentul oamenilor și animalelor care au nevoie de îngrijire. De asemenea, Organismul consultativ la nivel înalt al Națiunilor Unite privind inteligența artificială a emis un raport în septembrie, care, însă, nu abordează problema conștiinței AI, în ciuda solicitărilor unor cercetători de a include această temă în discuțiile privind gestionarea tehnologiei AI.
Deși nu este clar dacă sistemele AI vor dobândi vreodată conștiință de sine, incertitudinea nu ar trebui să descurajeze eforturile de dezvoltare a unor protocoale pentru evaluarea și gestionarea acestei posibilități. Este esențial să fim pregătiți pentru eventualitatea în care inteligența artificială ar putea experimenta stări subiective similare cu ale noastre, pentru a evita scenarii nedorite și pentru a asigura o coexistență armonioasă între oameni și mașini.