Aug 04, 2023
De « qui peut penser » à « ce qui peut penser » : découvrir l'IA à travers l'histoire
Vous avez peut-être entendu parler de l'avertissement d'Elon Musk à l'humanité sur les dangers de
Vous avez peut-être déjà entendu parler de l'avertissement d'Elon Musk à l'humanité sur les dangers de l'intelligence artificielle. Indépendamment des différentes réserves individuelles envers le géant de la Silicon Valley, il est indéniable que notre construction de la réalité est désormais plus fragile que jamais. Alors que les développements technologiques se déroulent à un rythme aussi incontrôlable et irréversible, il est nécessaire de réfléchir aux nombreux avertissements prémonitoires que les chercheurs ont émis au cours des dernières décennies.
L'idée que les machines peuvent exécuter ce que l'on pensait être exclusivement à la portée de l'esprit humain remonte à l'expérience du mathématicien Alan Turing en 1950, surnommée le test de Turing. Dans l'expérience de Turing, les participants devinaient si l'expéditeur des messages qu'ils recevaient sur un terminal informatique était un humain ou une machine. Turin a affirmé que si les machines peuvent imiter et agir comme d'énormes réservoirs de conscience humaine, elles peuvent en fait devenir des êtres humains ; la fusion ultérieure de la machine et de l'intelligence humaine crée le « cyborg ». Selon les mots de la critique littéraire américaine Katherine Hayles, "Vous êtes le cyborg, et le cyborg, c'est vous." Dès lors, le sujet libéral, largement considéré comme « l'humain » depuis les Lumières, devient désormais « le posthumain ».
Des décennies après l'expérience de Turing et l'argument de Hayles, l'iPhone moderne crée et mémorise pour vous des centaines de mots de passe compliqués. Votre iPad stocke vos notes pour le cours et répond à votre voix. Votre Apple Watch mesure votre fréquence cardiaque et suit vos calories. Ces ressources faciles d'accès vous empêchent d'envisager une vie sans appareils électroniques. Cette dépendance, bien que positive à bien des égards, devient inquiétante lorsque l'on imagine deux versions de vous-même existantes : l'une composée de sang et de chair et l'autre sous forme de signes et de symboles dans un environnement entièrement numérique. Alors qu'il ne faut maintenant que quelques secondes pour atteindre des robots capables de façonner instantanément des essais complexes et bien pensés, il semble prudent de conclure que la technologie ne peut plus être séparée de manière significative du sujet humain.
Dans ce nouveau paradigme posthumain où l'information échappe à la chair et la matérialité est rendue obsolète, il semble essentiel de pécher par excès de prudence lorsqu'on profite des idées originales de la Silicon Valley. Il est important de rechercher activement à la fois les faits scientifiques qui révèlent les impacts tangibles de l'IA ainsi que les textes littéraires qui révèlent les problèmes sociaux, culturels et politiques complexes auxquels l'humanité est confrontée en raison du développement technologique.
Cette nouvelle révélation signifie-t-elle que les humains peuvent désormais traiter leur corps comme de simples accessoires de mode ? Pas nécessairement. Dans son livre de 1999 "Comment nous sommes devenus posthumains", Hayles décrit un monde posthumain idéal comme celui qui "embrasse les possibilités des technologies de l'information sans être séduit par des fantasmes de pouvoir illimité et d'immortalité désincarnée". De plus, Hayles note également que ce monde devrait "reconnaître et célébrer la finitude comme une condition de l'être humain". Cette vision semble s'être concrétisée, car les organisations où le pouvoir est le plus concentré semblent se vanter de leurs technologies sophistiquées et de leur virtualité ; le Pentagone, par exemple, se considère actuellement comme un "théâtre sans précédent" dans lequel se déroulent des guerres. Cela étant dit, les préoccupations soulevées par les chercheurs contemporains rendent la vision de Hayles d'autant plus difficile à réaliser.
Deux décennies après la publication de l'intervention post-humaniste prémonitoire de Hayles, la sociologue et professeure de l'Université de Princeton, Ruha Benjamin, a inventé le terme "le nouveau code Jim". Cette idée fait référence à une gamme de conceptions discriminatoires dans la technologie qui fonctionnent explicitement pour amplifier les hiérarchies et reproduire les divisions sociales. En termes simples, la technologie qui imprègne presque toutes les crevasses de l'expérience humaine contemporaine peut reproduire et exacerber les inégalités systémiques, revêtant parfois une façade trompeuse et de bien-être qui semble promouvoir le contraire. Comme Benjamin l'a correctement souligné, il existe une pléthore de nouvelles applications qui incarnent ce code dans le statu quo.
Beauty AI, une initiative développée par diverses organisations de santé et de bien-être personnelles en Australie et à Hong Kong, s'est présentée comme le tout premier concours de beauté jugé par des robots. L'application demande aux candidats de prendre un selfie et de faire examiner les photos par un jury de robots, qui sélectionne ensuite un roi et une reine. Alors que les juges des robots étaient programmés pour évaluer les candidats en fonction des rides, de la symétrie du visage, de la couleur de la peau, du sexe, de l'âge et de l'origine ethnique, les créateurs de Beauty AI ont déclaré que leurs "robots n'aimaient pas les personnes à la peau foncée" en 2016. Tous sauf six les 44 gagnants étaient blancs, soutenant la préoccupation croissante selon laquelle les algorithmes étaient biaisés en raison des "préjugés profondément enracinés" des humains qui ont créé de telles machines.
Alors que l'on peut se demander pourquoi une étude de cas d'une application de beauté a de sérieuses implications pour l'avenir de l'humanité, la réalité est que l'impact de ces efforts internationaux a atteint les bureaux des pivots de la Silicon Valley. D'une part, la tendance des entreprises technologiques à absorber de manière sélective les aspects "acceptables" de la culture noire et à abandonner complètement les vestiges soulève des inquiétudes sur la façon dont les humains biaisés créent finalement des machines biaisées. Dans son livre, Benjamin se souvient d'une anecdote d'un ancien employé d'Apple qui décrit son expérience dans le développement de la reconnaissance vocale pour l'assistant virtuel Siri dans l'entreprise. Alors que son équipe a développé différents dialectes anglais tels que l'anglais australien, singapourien et indien, Apple n'a pas travaillé sur le dialecte anglais vernaculaire afro-américain, car son patron a déclaré que «les produits Apple sont destinés au marché haut de gamme». Ironiquement, cela s'est produit en 2015, un an seulement après qu'Apple a acheté la marque de casques Beats by Dr. Dre du rappeur afro-américain Dr. Dre pour 1 milliard de dollars. L'anecdote de Benjamin semble mettre l'accent sur la tendance des entreprises puissantes à dévaluer et à valoriser simultanément la noirceur, un trait directement transmis aux machines développées énormément plus intelligentes que les humains.
Lorsque la technologie étiquette les individus uniquement en fonction des implications ethniques de leurs noms, il n'est pas difficile d'imaginer des formes similaires de technologie ayant un impact sur les individus dans tous les aspects de la vie. Des contrôles dans les aéroports aux prêts au logement, des demandes d'emploi aux achats en ligne, la technologie a un impact sur les utilisateurs et leur qualité de vie. Dans de telles circonstances, l'argument posthumaniste n'en est que plus étayé et le monde posthumain idéal encore plus miné. Bien qu'il puisse sembler un peu trop tôt pour envisager une "extinction massive" ou "la destruction de la civilisation", les interventions faites par les universitaires nous avertissent à maintes reprises des résultats irrévocablement étendus et alambiqués que l'humanité pourrait récolter alors que la technologie se croise avec la chair.
Originaire de Séoul, en Corée du Sud, So Jin Jung est un chroniqueur d'opinion passionné par la politique et le journalisme. Elle peut être contactée à [email protected].
Veuillez envisager de faire un don au Michigan Daily