May 17, 2023
Q&A : Les experts disent qu'arrêter l'IA n'est pas possible - ou souhaitable
Par
Par Lucas Méarian
Reporter principal, Computerworld |
Alors que les outils d'IA générative tels que ChatGPT d'OpenAI et Bard de Google continuent d'évoluer à un rythme effréné, soulevant des questions sur la fiabilité et même les droits de l'homme, les experts se demandent si ou comment la technologie peut être ralentie et rendue plus sûre.
En mars, l'Institut à but non lucratif Future of Life a publié une lettre ouverte appelant à une pause de six mois dans le développement de ChatGPT, le chatbot basé sur l'IA créé par OpenAI, soutenu par Microsoft. La lettre, désormais signée par plus de 31 000 personnes, souligne que de puissants systèmes d'IA ne doivent être développés que lorsque leurs risques peuvent être gérés.
« Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? demandait la lettre.
Le co-fondateur d'Apple, Steve Wozniak, et le PDG de SpaceX et Tesla, Elon Musk, se sont joints à des milliers d'autres signataires pour convenir que l'IA pose "des risques profonds pour la société et l'humanité, comme le montrent des recherches approfondies et reconnues par les meilleurs laboratoires d'IA".
En mai, le Center for AI Safety, à but non lucratif, a publié une lettre ouverte similaire déclarant que l'IA présente un risque d'extinction mondial comparable aux pandémies et à la guerre nucléaire. Les signataires de cette déclaration comprenaient de nombreux scientifiques et cadres de l'IA qui ont apporté l'IA générative aux masses.
Les emplois devraient également être remplacés par l'IA générative - beaucoup d'emplois. En mars, Goldman Sachs a publié un rapport estimant que l'IA générative et sa capacité à automatiser les tâches pourraient affecter jusqu'à 300 millions d'emplois dans le monde. Et début mai, IBM a annoncé qu'il mettrait en pause les plans visant à pourvoir environ 7 800 postes et a estimé que près de trois emplois de back-office sur 10 pourraient être remplacés par l'IA sur une période de cinq ans, selon un rapport de Bloomberg.
Alors que les révolutions industrielles passées ont automatisé les tâches et remplacé les travailleurs, ces changements ont également créé plus d'emplois qu'ils n'en ont supprimés. Par exemple, la machine à vapeur avait besoin de charbon pour fonctionner - et de personnes pour la construire et l'entretenir.
L'IA générative, cependant, n'est pas l'équivalent d'une révolution industrielle. L'IA peut apprendre par elle-même et a déjà ingéré la plupart des informations créées par les humains. Bientôt, l'IA commencera à compléter les connaissances humaines par les siennes.
Geoff Schaefer, responsable de l'IA responsable, Booz Allen Hamilton
Geoff Schaefer est responsable de l'IA responsable chez Booz Allen Hamilton, un entrepreneur du gouvernement américain et de l'armée, spécialisé dans le renseignement. Susannah Shattuck est chef de produit chez Credo AI, un fournisseur SaaS de gouvernance de l'IA.
Computerworld s'est récemment entretenu avec Schaefer et Shattuck de l'avenir de l'IA et de son impact sur les emplois et la société dans son ensemble. Voici des extraits de cette interview.
Quels risques pose l'IA générative ?Shattuck : "Biais algorithmique. Ce sont des systèmes qui font des prédictions basées sur des modèles de données sur lesquels ils ont été entraînés. Et comme nous le savons tous, nous vivons dans un monde biaisé. Les données sur lesquelles nous entraînons ces systèmes sont souvent biaisés, et si nous ne sommes pas attentifs et réfléchis à la manière dont nous enseignons ou formons ces systèmes pour reconnaître des modèles dans les données, nous pouvons involontairement leur apprendre ou les former à faire des prédictions biaisées.
« Explicabilité. Un grand nombre des modèles les plus complexes [en grand langage] que nous pouvons construire de nos jours sont assez opaques pour nous. Nous ne comprenons pas exactement comment ils font une prédiction. -confiance ou environnement de prise de décision très sensible, il peut être difficile de faire confiance à un système d'IA dont vous ne comprenez pas entièrement le processus de prise de décision. Et c'est pourquoi nous assistons à une réglementation croissante axée sur la transparence des systèmes d'IA.
"Je vais vous donner un exemple très concret : si je vais déployer un système d'IA dans un scénario de soins médicaux où ce système fera certaines recommandations à un médecin en fonction des données du patient, alors l'explicabilité est va être vraiment critique pour ce médecin d'être prêt à faire confiance au système.
"La dernière chose que je dirai, c'est que les risques liés à l'IA évoluent continuellement à mesure que la technologie évolue. Et [il y a] un ensemble émergent de risques liés à l'IA auxquels nous n'avons pas vraiment eu à faire face auparavant - le risque d'hallucinations, par exemple. . Ces systèmes d'IA générative peuvent faire un travail très convaincant en générant des informations qui semblent réelles, mais qui ne sont pas du tout basées sur des faits. »
Bien que nous ne puissions pas prédire tous les risques futurs, selon vous, qu'est-ce qui est le plus susceptible de se produire ?Schaefer : "Ces systèmes ne sont pas censés faire tout ce qu'ils sont maintenant capables de faire. Nous n'avons pas programmé le GPT-4 pour écrire des programmes informatiques, mais il peut le faire, en particulier lorsqu'il est combiné à d'autres capacités. comme l'interpréteur de code et d'autres programmes et plugins. C'est excitant et un peu intimidant. Nous essayons de mettre la main sur les profils de risque de ces systèmes. Les profils de risque, qui évoluent littéralement au quotidien.
"Cela ne veut pas dire que tout est un risque net. Il y a aussi des avantages nets, y compris dans l'espace de sécurité. Je pense que [la société de recherche sur la sécurité de l'IA] Anthropic en est un exemple vraiment intéressant, où ils effectuent des tests de sécurité vraiment intéressants. travailler où ils demandent à un modèle d'être moins biaisé et à une certaine taille, ils ont trouvé qu'il produira littéralement une sortie moins biaisée simplement en le demandant.Donc, je pense que nous devons examiner comment nous pouvons tirer parti de certaines de ces capacités émergentes pour gérer le risque de ces systèmes eux-mêmes ainsi que le risque de ce qu'il y a de nouveau dans ces capacités émergentes."
Alors on lui demande juste d'être plus sympa ?Schaefer : "Oui, littéralement."
Ces systèmes deviennent exponentiellement plus intelligents sur de courtes périodes et ils vont évoluer à un rythme plus rapide. Pouvons-nous même les maîtriser à ce stade?Schaefer : "Je suis un optimiste de l'IA. Je pense qu'il n'est ni possible ni souhaitable de le contenir. Du point de vue de l'éthique de l'IA, j'y pense beaucoup. Qu'est-ce que l'éthique ? Quelle est l'ancre ? Qu'est-ce que notre boussole morale à ce domaine d'étude, etc. vivre une bonne vie... Aristote a appelé cette Eudaimonia, ce qui signifie le bonheur humain, l'épanouissement humain, une sorte de combinaison unique de ces deux choses.
"Et je pense que si nous appliquons cette optique aux systèmes d'IA maintenant, ce que nous considérerions comme éthique et responsable serait assez différent. Ainsi, les systèmes d'IA qui produisent le plus d'épanouissement et de bonheur humains, je pense que nous devrions envisager responsable et éthique. Et je pense que l'un des principaux exemples de cela est le système AlphaFold de [Google] DeepMind. Vous connaissez probablement ce modèle, il a résolu le défi majeur en biologie de déchiffrer les replis protéiques, qui est de transformer la médecine moderne, ici et Si cela a des résultats majeurs pour les patients, cela équivaut à l'épanouissement humain.
"Donc, je pense que nous devrions nous concentrer tout autant sur la façon dont ces puissants systèmes d'IA peuvent être utilisés pour faire avancer la science d'une manière que nous ne pouvions littéralement pas auparavant. De l'amélioration des services que les citoyens expérimentent au quotidien, tout d'aussi ennuyeux que le courrier postal service aussi excitant que ce que fait la NOAA dans le domaine du changement climatique.
"Donc, sur le net, je suis moins inquiet que j'ai peur."
Susannah Shattuck, chef de produit, Credo AI
Shattuck : "Je suis aussi un optimiste. [Mais] je pense que l'élément humain est toujours une énorme source de risque pour des technologies incroyablement puissantes. Quand je pense à ce qui est vraiment transformationnel dans l'IA générative, je pense que l'une des choses les plus transformationnelles est que l'interface permettant à un système d'IA de faire quelque chose pour vous est désormais une interface humaine universelle de texte. Alors qu'avant, les systèmes d'IA étaient des choses qu'il fallait savoir coder pour construire correctement et guider afin qu'ils fassent des choses pour Maintenant, littéralement n'importe qui qui peut taper, envoyer du texte [ou] parler du texte et peut interagir avec un système d'IA très puissant et lui faire faire quelque chose pour lui, et je pense que cela a un potentiel incroyable.
"Je suis aussi un optimiste à bien des égards, mais [cette interface simple] signifie également que la barrière à l'entrée pour les mauvais acteurs est incroyablement faible. Cela signifie que la barrière à l'entrée pour une mauvaise utilisation erronée de ces systèmes est très faible. Donc, Je pense qu'il est d'autant plus important de définir des garde-fous qui empêcheront à la fois l'utilisation abusive ou l'abus intentionnel et non intentionnel de ces systèmes à définir."
Quel sera l'impact de l'IA générative sur les emplois ? Cela ressemblera-t-il aux révolutions industrielles précédentes qui ont supprimé de nombreux emplois grâce à l'automatisation, mais ont entraîné de nouvelles professions grâce à des postes qualifiés ?Schaefer : "Je prends très au sérieux l'analyse de gens comme Goldman Sachs - [l'IA] a un impact sur plus de 300 millions d'emplois d'une manière ou d'une autre. Je pense que c'est vrai. C'est juste une question de savoir à quoi ressemble réellement cet impact, et comment nous sommes capables de faire la transition et de passer à l'échelle. Je pense que le jury n'est toujours pas sur ce point. C'est quelque chose que nous devons planifier dès maintenant plutôt que de supposer que ce sera comme n'importe quelle transition technologique précédente en ce sens qu'elle créera de nouveaux emplois. Je ne sais pas c'est garanti.
"C'est nouveau dans la mesure où les emplois que cela va affecter sont d'un type socio-économique différent, plus large, et ont un impact plus élevé sur le PIB, si vous voulez. Et franchement, cela déplacera les marchés, déplacera les industries et déplacera des verticales entières de l'éducation d'une manière que la révolution industrielle ne faisait pas auparavant. Et donc, je pense qu'il s'agit d'un type de changement fondamentalement différent.
Shattuck : "Mon ancien employeur [IBM] dit qu'il n'embauchera pas [des milliers] d'ingénieurs, d'ingénieurs en logiciel qu'il avait initialement prévu d'embaucher. Ils ont fait... des déclarations selon lesquelles ces systèmes d'IA leur permettent essentiellement d'obtenir le même type de sortie [avec moins d'ingénieurs logiciels]. Et si vous avez utilisé l'un de ces outils pour la génération de code, je pense que c'est probablement l'exemple parfait de la manière dont ces systèmes peuvent augmenter les humains [et peuvent] changer radicalement le nombre de personnes dont vous avez besoin pour créer un logiciel.
"Ensuite, l'autre exemple qui se déroule actuellement en ce moment, c'est qu'il y a une grève des écrivains à Hollywood. Et je sais que l'un des problèmes sur la table en ce moment, l'une des raisons pour lesquelles les écrivains font grève, c'est qu'ils ' Je suis inquiet que ChatGPT [et d'autres systèmes d'IA générative] soient de plus en plus utilisés pour remplacer les écrivains. Et donc, l'un des problèmes de main-d'œuvre sur la table en ce moment est un nombre minimum d'écrivains, vous savez, des écrivains humains qui doivent être assigné à travailler sur une émission ou à travailler sur un film. Et donc je pense que ce sont des problèmes de travail très réels qui se déroulent actuellement.
"Quelle réglementation finit par être adoptée pour protéger les travailleurs humains ? Je pense que nous allons de plus en plus voir qu'il y a une tension entre les travailleurs humains et leurs droits et vraiment les gains de productivité incroyables que nous obtenons de ces outils."
Parlons provenance. Les systèmes d'IA générative peuvent simplement voler la propriété intellectuelle et les œuvres protégées par le droit d'auteur, car il n'existe actuellement aucune méthode automatisée et normalisée pour détecter ce qui est généré par l'IA et ce qui est créé par les humains. Comment protégeons-nous les œuvres originales de l'auteur ?Shattuck :" Nous avons beaucoup réfléchi à cela chez Credo car il s'agit d'un risque très important pour nos clients et vous savez qu'ils recherchent des solutions pour le résoudre. Je pense qu'il y a plusieurs choses que nous pouvons faire. Il y a quelques endroits où intervenir directement dans le flux de travail de l'IA, si vous voulez. Un endroit où intervenir est juste au point où le système d'IA produit une sortie. Si vous pouvez vérifier efficacement les sorties des systèmes d'IA par rapport au monde du matériel protégé par le droit d'auteur, s'il y a une correspondance, alors vous pouvez bloquer efficacement les sorties d'IA génératives qui enfreindraient le droit d'auteur de quelqu'un d'autre.
"Donc, un exemple serait, si vous utilisez un système d'IA génératif pour générer des images, et que ce système génère une image qui contient probablement l'image la plus disputée par le droit d'auteur au monde - les oreilles de Mickey Mouse - vous voulez automatiquement bloquer cette sortie parce que vous ne voulez pas que Disney vienne pour vous si vous l'utilisez accidentellement quelque part sur votre site Web ou dans vos supports marketing.Ainsi, pouvoir bloquer les sorties en détectant qu'elles enfreignent déjà le droit d'auteur existant est un garde-corps que vous pourrait mettre en place, et c'est probablement le plus facile à faire pour le code.
"Ensuite, il y a un autre niveau d'intervention, qui, je pense, est lié au filigrane, c'est-à-dire comment aider les humains à prendre des décisions sur le contenu généré à utiliser ou non. Et donc être capable de comprendre qu'un système d'IA a généré un contenu de manière fiable , grâce au filigrane, est certainement un moyen d'y parvenir. Je pense qu'en général, fournir aux humains des outils pour mieux évaluer les résultats de l'IA générative par rapport à une grande variété de risques différents sera vraiment essentiel pour permettre aux humains d'utiliser en toute confiance IA générative dans un tas de scénarios différents."
Quels risques pose l'IA générative ? Bien que nous ne puissions pas prédire tous les risques futurs, selon vous, qu'est-ce qui est le plus susceptible de se produire ? Alors on lui demande juste d'être plus sympa ? Ces systèmes deviennent exponentiellement plus intelligents sur de courtes périodes et ils vont évoluer à un rythme plus rapide. Pouvons-nous même les maîtriser à ce stade? Quel sera l'impact de l'IA générative sur les emplois ? Cela ressemblera-t-il aux révolutions industrielles précédentes qui ont supprimé de nombreux emplois grâce à l'automatisation, mais ont entraîné de nouvelles professions grâce à des postes qualifiés ? Parlons provenance. Les systèmes d'IA générative peuvent simplement voler la propriété intellectuelle et les œuvres protégées par le droit d'auteur, car il n'existe actuellement aucune méthode automatisée et normalisée pour détecter ce qui est généré par l'IA et ce qui est créé par les humains. Comment protégeons-nous les œuvres originales de l'auteur ? "