Pourquoi l'IA sauvera le monde

Blog

MaisonMaison / Blog / Pourquoi l'IA sauvera le monde

Jun 10, 2023

Pourquoi l'IA sauvera le monde

L'ère de l'intelligence artificielle est arrivée, et les gens paniquent.

L'ère de l'intelligence artificielle est arrivée, et les gens paniquent.

Heureusement, je suis ici pour apporter la bonne nouvelle : l'IA ne détruira pas le monde, et pourrait même le sauver.

Tout d'abord, une brève description de ce qu'est l'IA : l'application des mathématiques et du code logiciel pour enseigner aux ordinateurs comment comprendre, synthétiser et générer des connaissances de la même manière que les gens le font. L'IA est un programme informatique comme un autre - il s'exécute, prend des entrées, traite et génère des sorties. La production de l'IA est utile dans un large éventail de domaines, allant du codage à la médecine en passant par le droit et les arts créatifs. Il appartient à des personnes et est contrôlé par des personnes, comme toute autre technologie.

Une description plus courte de ce que l'IA n'est pas : des logiciels tueurs et des robots qui prendront vie et décideront d'assassiner la race humaine ou de tout gâcher, comme vous le voyez dans les films.

Une description encore plus courte de ce que pourrait être l'IA : un moyen d'améliorer tout ce qui nous tient à cœur.

La conclusion fondamentale la plus validée des sciences sociales à travers de nombreuses décennies et des milliers d'études est que l'intelligence humaine améliore un très large éventail de résultats de vie. Les personnes plus intelligentes obtiennent de meilleurs résultats dans presque tous les domaines d'activité : réussite scolaire, rendement au travail, statut professionnel, revenu, créativité, santé physique, longévité, apprentissage de nouvelles compétences, gestion de tâches complexes, leadership, réussite entrepreneuriale, résolution de conflits, compréhension de la lecture, finances la prise de décision, la compréhension des perspectives des autres, les arts créatifs, les résultats parentaux et la satisfaction à l'égard de la vie.

De plus, l'intelligence humaine est le levier que nous avons utilisé pendant des millénaires pour créer le monde dans lequel nous vivons aujourd'hui : science, technologie, mathématiques, physique, chimie, médecine, énergie, construction, transport, communication, art, musique, culture, philosophie, éthique, morale. Sans l'application de l'intelligence sur tous ces domaines, nous vivrions tous encore dans des huttes de boue, grattant une maigre existence d'agriculture de subsistance. Au lieu de cela, nous avons utilisé notre intelligence pour augmenter notre niveau de vie de l'ordre de 10 000 fois au cours des 4 000 dernières années.

Ce que l'IA nous offre, c'est l'opportunité d'augmenter profondément l'intelligence humaine pour rendre tous ces résultats de l'intelligence - et bien d'autres, de la création de nouveaux médicaments aux moyens de résoudre le changement climatique aux technologies pour atteindre les étoiles - beaucoup, beaucoup mieux à partir d'ici .

L'augmentation de l'intelligence humaine par l'IA a déjà commencé - l'IA est déjà autour de nous sous la forme de systèmes de contrôle informatique de toutes sortes, s'intensifie maintenant rapidement avec les grands modèles de langage AI comme ChatGPT, et accélérera très rapidement à partir d'ici - si nous le laissons faire.

Dans notre nouvelle ère d'IA :

Les enjeux ici sont élevés. Les opportunités sont profondes. L'IA est probablement la chose la plus importante - et la meilleure - que notre civilisation ait jamais créée, certainement à égalité avec l'électricité et les micropuces, et probablement au-delà de celles-ci.

Le développement et la prolifération de l'IA - loin d'être un risque que nous devrions craindre - est une obligation morale que nous avons envers nous-mêmes, envers nos enfants et envers notre avenir.

Nous devrions vivre dans un monde bien meilleur avec l'IA, et maintenant nous le pouvons.

Contrairement à cette vision positive, la conversation publique sur l'IA est actuellement traversée par une peur hystérique et paranoïa.

Nous entendons des affirmations selon lesquelles l'IA nous tuera tous, ruinera notre société, prendra tous nos emplois, causera des inégalités paralysantes et permettra aux mauvaises personnes de faire des choses horribles.

Qu'est-ce qui explique cette divergence dans les résultats potentiels de la quasi-utopie à l'horrible dystopie ?

Historiquement, chaque nouvelle technologie qui compte, de l'éclairage électrique aux automobiles en passant par la radio et Internet, a déclenché une panique morale - une contagion sociale qui convainc les gens que la nouvelle technologie va détruire le monde, ou la société, ou les deux. Les braves gens de Pessimists Archive ont documenté ces paniques morales axées sur la technologie au fil des décennies; leur histoire rend le modèle très clair. Il s'avère que cette panique actuelle n'est même pas la première pour l'IA.

Maintenant, il est certain que de nombreuses nouvelles technologies ont conduit à de mauvais résultats – souvent les mêmes technologies qui ont par ailleurs été extrêmement bénéfiques pour notre bien-être. Ce n'est donc pas que la simple existence d'une panique morale signifie qu'il n'y a pas lieu de s'inquiéter.

Mais une panique morale est par sa nature même irrationnelle - elle prend ce qui peut être une préoccupation légitime et la gonfle à un niveau d'hystérie qui, ironiquement, rend plus difficile la confrontation à des préoccupations réellement sérieuses.

Et wow avons-nous une véritable panique morale à propos de l'IA en ce moment.

Cette panique morale est déjà utilisée comme force motrice par divers acteurs pour exiger une action politique - nouvelles restrictions, réglementations et lois sur l'IA. Ces acteurs, qui font des déclarations publiques extrêmement dramatiques sur les dangers de l'IA - se nourrissant et attisant davantage la panique morale - se présentent tous comme des champions désintéressés du bien public.

Mais le sont-ils ?

Et ont-ils raison ou tort ?

Les économistes ont observé une tendance de longue date dans les mouvements de réforme de ce type. Les acteurs au sein de mouvements comme ceux-ci se répartissent en deux catégories - les "baptistes" et les "bootleggers" - s'inspirant de l'exemple historique de la prohibition de l'alcool aux États-Unis dans les années 1920 :

Un cynique suggérerait que certains des baptistes apparents sont aussi des contrebandiers - en particulier ceux payés pour attaquer l'IA par leurs universités, leurs groupes de réflexion, leurs groupes d'activistes et leurs médias. Si vous êtes payé un salaire ou recevez des subventions pour favoriser la panique de l'IA… vous êtes probablement un Bootlegger.

Le problème avec les Bootleggers, c'est qu'ils gagnent. Les baptistes sont des idéologues naïfs, les bootleggers sont des opérateurs cyniques, et donc le résultat de mouvements de réforme comme ceux-ci est souvent que les bootleggers obtiennent ce qu'ils veulent - capture réglementaire, isolation de la concurrence, formation d'un cartel - et les baptistes se demandent où leur volonté d'amélioration sociale a si mal tourné.

Nous venons d'en vivre un exemple frappant : la réforme bancaire après la crise financière mondiale de 2008. Les baptistes nous ont dit que nous avions besoin de nouvelles lois et réglementations pour démanteler les banques "too big to fail" afin d'empêcher qu'une telle crise ne se reproduise. Ainsi, le Congrès a adopté la loi Dodd-Frank de 2010, qui a été commercialisée comme satisfaisant l'objectif des baptistes, mais en réalité a été cooptée par les Bootleggers - les grandes banques. Le résultat est que les mêmes banques qui étaient "too big to fail" en 2008 sont beaucoup, beaucoup plus grandes maintenant.

Ainsi, dans la pratique, même lorsque les baptistes sont authentiques - et même lorsqu'ils ont raison - ils sont utilisés comme couverture par des contrebandiers manipulateurs et vénaux pour leur propre profit.

Et c'est ce qui se passe actuellement dans le cadre de la réglementation de l'IA.

Cependant, il ne suffit pas d'identifier simplement les acteurs et d'attaquer leurs motivations. Nous devrions considérer les arguments des Baptistes et des Bootleggers sur leurs mérites.

Le premier et original risque de doomer de l'IA est que l'IA décide de tuer littéralement l'humanité.

La peur que la technologie de notre propre création se lève et nous détruise est profondément codée dans notre culture. Les Grecs ont exprimé cette peur dans le mythe de Prométhée - Prométhée a apporté le pouvoir destructeur du feu, et plus généralement de la technologie ("techne"), à l'homme, pour lequel Prométhée a été condamné à la torture perpétuelle par les dieux. Plus tard, Mary Shelley nous a donné aux modernes notre propre version de ce mythe dans son roman Frankenstein, ou, Le Prométhée moderne, dans lequel nous développons la technologie de la vie éternelle, qui se lève alors et cherche à nous détruire. Et bien sûr, aucun article de journal de panique sur l'IA n'est complet sans une image fixe d'un robot tueur aux yeux rouges brillants des films Terminator de James Cameron.

Le but évolutif présumé de cette mythologie est de nous motiver à considérer sérieusement les risques potentiels des nouvelles technologies - le feu, après tout, peut en effet être utilisé pour incendier des villes entières. Mais tout comme le feu était aussi le fondement de la civilisation moderne, utilisé pour nous garder au chaud et en sécurité dans un monde froid et hostile, cette mythologie ignore le bien plus grand avantage de la plupart - tous ? – nouvelles technologies, et en pratique attise l'émotion destructrice plutôt que l'analyse raisonnée. Ce n'est pas parce que l'homme prémoderne a paniqué comme ça que nous devons le faire ; nous pouvons appliquer la rationalité à la place.

Mon point de vue est que l'idée que l'IA décidera de tuer littéralement l'humanité est une profonde erreur de catégorie. L'IA n'est pas un être vivant qui a été amorcé par des milliards d'années d'évolution pour participer à la bataille pour la survie du plus apte, comme le sont les animaux et comme nous le sommes. Ce sont des maths – du code – des ordinateurs, construits par des gens, possédés par des gens, utilisés par des gens, contrôlés par des gens. L'idée qu'il développera à un moment donné son propre esprit et décidera qu'il a des motivations qui le conduisent à essayer de nous tuer est un signe de main superstitieux.

Bref, l'IA ne veut pas, elle n'a pas de buts, elle ne veut pas vous tuer, car elle n'est pas vivante. Et l'IA est une machine - ne va pas plus prendre vie que votre grille-pain.

Maintenant, évidemment, il y a de vrais croyants en l'IA tueuse - les baptistes - qui gagnent une couverture médiatique soudainement stratosphérique pour leurs avertissements terrifiants, dont certains prétendent étudier le sujet depuis des décennies et disent qu'ils ont maintenant peur de leur esprits par ce qu'ils ont appris. Certains de ces vrais croyants sont même de véritables innovateurs de la technologie. Ces acteurs plaident pour une variété de restrictions bizarres et extrêmes sur l'IA, allant de l'interdiction du développement de l'IA aux frappes aériennes militaires sur les centres de données et à la guerre nucléaire. Ils soutiennent que parce que des gens comme moi ne peuvent pas exclure les futures conséquences catastrophiques de l'IA, nous devons adopter une position de précaution qui peut nécessiter de grandes quantités de violence physique et de mort afin de prévenir un risque existentiel potentiel.

Ma réponse est que leur position n'est pas scientifique - Quelle est l'hypothèse vérifiable ? Qu'est-ce qui fausserait l'hypothèse ? Comment savons-nous que nous entrons dans une zone dangereuse ? Ces questions restent principalement sans réponse à part "Vous ne pouvez pas prouver que cela n'arrivera pas!" En fait, la position de ces baptistes est si non scientifique et si extrême - une théorie du complot sur les mathématiques et le code - et appelle déjà à la violence physique, que je ferai quelque chose que je ne ferais pas normalement et remettrai également en question leurs motivations.

Plus précisément, je pense que trois choses se passent :

Tout d'abord, rappelez-vous que John Von Neumann a répondu à la célèbre torsion de Robert Oppenheimer à propos de son rôle dans la création d'armes nucléaires - qui a contribué à mettre fin à la Seconde Guerre mondiale et à prévenir la Troisième Guerre mondiale - par : "Certaines personnes avouent leur culpabilité pour s'attribuer le mérite du péché". Quelle est la manière la plus spectaculaire de revendiquer l'importance de son travail sans paraître ouvertement vantard ? Cela explique le décalage entre les paroles et les actions des baptistes qui construisent et financent réellement l'IA - surveillez leurs actions, pas leurs paroles. (Truman a été plus dur après sa rencontre avec Oppenheimer : « Ne laissez plus ce pleurnichard ici. »)

Deuxièmement, certains baptistes sont en fait des contrebandiers. Il existe tout un métier d'« expert en sécurité IA », « éthicien IA », « chercheur en risques IA ». Ils sont payés pour être des condamnés et leurs déclarations doivent être traitées de manière appropriée.

Troisièmement, la Californie est à juste titre célèbre pour ses milliers de cultes, de l'EST au Peoples Temple, de Heaven's Gate à la famille Manson. Beaucoup de ces cultes, mais pas tous, sont inoffensifs et peuvent même servir à des personnes aliénées qui y trouvent un foyer. Mais certains sont en effet très dangereux, et les sectes ont notoirement du mal à franchir la ligne qui mène finalement à la violence et à la mort.

Et la réalité, qui est évidente pour tout le monde dans la Bay Area mais probablement pas en dehors, est que le "risque de l'IA" est devenu un culte, qui a soudainement émergé au grand jour de l'attention de la presse mondiale et de la conversation publique. Ce culte a attiré non seulement des personnages marginaux, mais aussi de véritables experts de l'industrie et un nombre non négligeable de riches donateurs – y compris, jusqu'à récemment, Sam Bankman-Fried. Et il a développé une panoplie complète de comportements et de croyances sectaires.

Ce culte est la raison pour laquelle il existe un ensemble de doomers du risque de l'IA qui semblent si extrêmes - ce n'est pas qu'ils ont en fait des connaissances secrètes qui rendent leur extrémisme logique, c'est qu'ils se sont lancés dans une frénésie et sont vraiment... extrêmement extrêmes.

Il s'avère que ce type de culte n'est pas nouveau – il existe une longue tradition occidentale de millénarisme, qui génère des cultes de l'apocalypse. Le culte du risque de l'IA a toutes les caractéristiques d'un culte de l'apocalypse millénariste. De Wikipedia, avec des ajouts par moi:

"Le millénarisme est la croyance d'un groupe ou d'un mouvement [les doomers du risque de l'IA] en une transformation fondamentale à venir de la société [l'arrivée de l'IA], après laquelle tout sera changé [utopie de l'IA, dystopie et/ou fin du monde] Seuls les événements dramatiques [interdictions de l'IA, frappes aériennes sur les centres de données, frappes nucléaires sur l'IA non réglementée] sont considérés comme capables de changer le monde [empêcher l'IA] et le changement devrait être provoqué, ou survécu, par un groupe de dévots et Dans la plupart des scénarios millénaires, la catastrophe ou la bataille à venir [l'apocalypse de l'IA, ou sa prévention] sera suivie d'un nouveau monde purifié [l'interdiction de l'IA] dans lequel les croyants seront récompensés [ou du moins reconnus pour avoir eu raison tout au long]."

Ce modèle de culte de l'apocalypse est si évident que je suis surpris que plus de gens ne le voient pas.

Ne vous méprenez pas, les sectes sont amusantes à entendre, leur matériel écrit est souvent créatif et fascinant, et leurs membres s'engagent lors de dîners et à la télévision. Mais leurs croyances extrêmes ne devraient pas déterminer l'avenir des lois et de la société - évidemment pas.

Le deuxième risque de l'IA largement évoqué est que l'IA ruine notre société, en générant des sorties qui seront si « nocives », pour utiliser la nomenclature de ce type de doomer, qu'elles causeront de profonds dommages à l'humanité, même si nous ne sommes pas littéralement tué.

Version courte : si les robots meurtriers ne nous comprennent pas, le discours de haine et la désinformation le feront.

Il s'agit d'une préoccupation relativement récente qui s'est éloignée et a quelque peu repris le mouvement du "risque de l'IA" que j'ai décrit ci-dessus. En fait, la terminologie du risque lié à l'IA est récemment passée de « sécurité de l'IA » - le terme utilisé par les personnes qui craignent que l'IA ne nous tue littéralement - à « alignement de l'IA » - le terme utilisé par les personnes qui s'inquiètent des « dommages » sociétaux. . Les premiers responsables de la sécurité de l'IA sont frustrés par ce changement, bien qu'ils ne sachent pas comment le remettre dans la boîte - ils préconisent maintenant que le sujet du risque réel de l'IA soit renommé "IA notkilleveryoneism", qui n'a pas encore été largement adopté mais est au moins clair.

L'indice de la nature de l'allégation de risque sociétal de l'IA est son propre terme, "l'alignement de l'IA". Alignement avec quoi ? Les valeurs humaines. Quelles valeurs humaines ? Ah, c'est là que les choses se compliquent.

Il se trouve que j'ai été aux premières loges d'une situation analogue - les guerres de «confiance et de sécurité» des médias sociaux. Comme il est maintenant évident, les services de médias sociaux ont subi des pressions massives de la part des gouvernements et des militants pour interdire, restreindre, censurer et autrement supprimer un large éventail de contenus pendant de nombreuses années. Et les mêmes préoccupations concernant le "discours de haine" (et son homologue mathématique, le "biais algorithmique") et la "désinformation" sont directement transférées du contexte des médias sociaux à la nouvelle frontière de "l'alignement de l'IA".

Mes grands apprentissages de la guerre des médias sociaux sont :

D'une part, il n'y a pas de position absolutiste sur la liberté d'expression. Premièrement, chaque pays, y compris les États-Unis, rend au moins certains contenus illégaux. Deuxièmement, il existe certains types de contenus, comme la pédopornographie et les incitations à la violence dans le monde réel, qui sont presque universellement reconnus comme interdits – légaux ou non – par pratiquement toutes les sociétés. Ainsi, toute plate-forme technologique qui facilite ou génère du contenu – la parole – va avoir certaines restrictions.

D'autre part, la pente glissante n'est pas une erreur, c'est une fatalité. Une fois qu'un cadre pour restreindre le contenu, même extrêmement terrible, est en place - par exemple, pour le discours de haine, un mot blessant spécifique, ou pour la désinformation, évidemment de fausses déclarations comme "le pape est mort" - un éventail choquant d'agences gouvernementales et de pressions militantes les groupes et les entités non gouvernementales passeront à la vitesse supérieure et exigeront des niveaux toujours plus élevés de censure et de suppression de tout discours qu'ils considèrent comme menaçant pour la société et/ou leurs propres préférences personnelles. Ils le feront jusqu'à et y compris d'une manière qui constitue manifestement des crimes criminels. Dans la pratique, ce cycle peut fonctionner apparemment pour toujours, avec le soutien enthousiaste des moniteurs autoritaires installés dans toutes nos structures de pouvoir d'élite. Cela a été en cascade pendant une décennie dans les médias sociaux et, à quelques exceptions près, continue de devenir de plus en plus fervent.

Et c'est donc la dynamique qui s'est formée autour de "l'alignement de l'IA" maintenant. Ses partisans revendiquent la sagesse de concevoir des discours et des pensées générés par l'IA qui sont bons pour la société, et d'interdire les discours et les pensées générés par l'IA qui sont mauvais pour la société. Ses opposants affirment que la police de la pensée est d'une arrogance et d'une présomption à couper le souffle - et souvent carrément criminelle, du moins aux États-Unis - et cherche en fait à devenir un nouveau type de dictature autoritaire fusionnée entre le gouvernement, les entreprises et les universités, arrachée directement aux pages de 1984 de George Orwell.

Alors que les partisans de la "confiance et de la sécurité" et de "l'alignement de l'IA" sont regroupés dans la tranche très étroite de la population mondiale qui caractérise les élites côtières américaines - qui comprend de nombreuses personnes qui travaillent et écrivent sur l'industrie technologique - beaucoup de mes lecteurs se trouveront prêts à affirmer que des restrictions dramatiques sur la production de l'IA sont nécessaires pour éviter de détruire la société. Je n'essaierai pas de vous en dissuader maintenant, je dirai simplement que c'est la nature de la demande, et que la plupart des gens dans le monde ne sont pas d'accord avec votre idéologie ni ne veulent vous voir gagner.

Si vous n'êtes pas d'accord avec la moralité de niche dominante qui est imposée à la fois aux médias sociaux et à l'IA via des codes de discours de plus en plus intensifs, vous devez également réaliser que la lutte sur ce que l'IA est autorisée à dire/générer sera encore plus importante - de beaucoup - que la lutte contre la censure des médias sociaux. L'IA est très susceptible d'être la couche de contrôle pour tout dans le monde. La façon dont il est autorisé à fonctionner va importer peut-être plus que toute autre chose n'a jamais eu d'importance. Vous devriez être conscient de la façon dont une petite coterie isolée d'ingénieurs sociaux partisans essaie de déterminer cela en ce moment, sous le couvert de l'affirmation séculaire selon laquelle ils vous protègent.

En bref, ne laissez pas la police de la pensée supprimer l'IA.

La peur de la perte d'emploi due à la mécanisation, à l'automatisation, à l'informatisation ou à l'IA est une panique récurrente depuis des centaines d'années, depuis l'apparition de machines telles que le métier à tisser mécanique. Même si chaque nouvelle technologie majeure a conduit à plus d'emplois à des salaires plus élevés tout au long de l'histoire, chaque vague de cette panique s'accompagne d'affirmations selon lesquelles "cette fois est différente" - c'est le moment où cela arrivera enfin, c'est la technologie qui finira par donner le coup de marteau au travail humain. Et pourtant, cela n'arrive jamais.

Nous avons traversé deux cycles de panique du chômage liés à la technologie dans notre passé récent - la panique de l'externalisation des années 2000 et la panique de l'automatisation des années 2010. Malgré de nombreuses têtes parlantes, experts et même des dirigeants de l'industrie technologique qui ont battu la table tout au long des deux décennies où le chômage de masse était proche, fin 2019 - juste avant le début de COVID - le monde avait plus d'emplois à des salaires plus élevés que jamais dans l'histoire.

Néanmoins cette idée erronée ne mourra pas.

Et bien sûr, il est de retour.

Cette fois, nous avons enfin la technologie qui va prendre tous les emplois et rendre les travailleurs humains superflus : la véritable IA. Cette fois, l'histoire ne se répétera sûrement pas, et l'IA entraînera un chômage de masse - et non une croissance rapide de l'économie, de l'emploi et des salaires - n'est-ce pas ?

Non, cela ne se produira pas - et en fait l'IA, si elle est autorisée à se développer et à proliférer dans l'ensemble de l'économie, pourrait provoquer le boom économique le plus spectaculaire et le plus soutenu de tous les temps, avec en conséquence une croissance record de l'emploi et des salaires - l'exact opposé de la peur . Et voici pourquoi.

L'erreur fondamentale que les doomers de l'automatisation tue des emplois ne cesse de commettre s'appelle l'erreur forfaitaire de travail. Cette erreur est la notion incorrecte selon laquelle il y a une quantité fixe de travail à faire dans l'économie à un moment donné, et soit les machines le font, soit les gens le font - et si les machines le font, il n'y aura pas de travail à faire pour les gens .

L'erreur forfaitaire de travail découle naturellement de l'intuition naïve, mais l'intuition naïve ici est fausse. Lorsque la technologie est appliquée à la production, nous obtenons une croissance de la productivité - une augmentation de la production générée par une réduction des intrants. Le résultat est une baisse des prix des biens et des services. À mesure que les prix des biens et des services baissent, nous les payons moins, ce qui signifie que nous avons désormais un pouvoir d'achat supplémentaire pour acheter d'autres choses. Cela augmente la demande dans l'économie, ce qui entraîne la création d'une nouvelle production - y compris de nouveaux produits et de nouvelles industries - qui crée ensuite de nouveaux emplois pour les personnes qui ont été remplacées par des machines dans des emplois antérieurs. Le résultat est une économie plus grande avec une plus grande prospérité matérielle, plus d'industries, plus de produits et plus d'emplois.

Mais la bonne nouvelle ne s'arrête pas là. Nous recevons également des salaires plus élevés. En effet, au niveau du travailleur individuel, le marché fixe la rémunération en fonction de la productivité marginale du travailleur. Un travailleur dans une entreprise axée sur la technologie sera plus productif qu'un travailleur dans une entreprise traditionnelle. Soit l'employeur paiera plus d'argent à ce travailleur car il est maintenant plus productif, soit un autre employeur le fera, uniquement par intérêt personnel. Le résultat est que la technologie introduite dans une industrie augmente généralement non seulement le nombre d'emplois dans l'industrie, mais aussi les salaires.

Pour résumer, la technologie permet aux gens d'être plus productifs. Cela entraîne une baisse des prix des biens et services existants et une augmentation des salaires. Cela entraîne à son tour la croissance économique et la croissance de l'emploi, tout en motivant la création de nouveaux emplois et de nouvelles industries. Si une économie de marché est autorisée à fonctionner normalement et si la technologie est autorisée à être introduite librement, il s'agit d'un cycle ascendant perpétuel qui ne se termine jamais. Car, comme l'a observé Milton Friedman, "les désirs et les besoins humains sont infinis" - nous voulons toujours plus que ce que nous avons. Une économie de marché imprégnée de technologie est la façon dont nous nous rapprochons de la fourniture de tout ce que tout le monde pourrait souhaiter, mais jamais jusqu'au bout. Et c'est pourquoi la technologie ne détruit pas les emplois et ne le fera jamais.

Ce sont des idées tellement époustouflantes pour les personnes qui n'y ont pas été exposées qu'il vous faudra peut-être un certain temps pour les comprendre. Mais je jure que je ne les invente pas - en fait, vous pouvez tout lire à leur sujet dans les manuels d'économie standard. Je recommande le chapitre The Curse of Machinery dans Economics In One Lesson d'Henry Hazlitt et le satirique Candlemaker's Petition de Frederic Bastiat pour masquer le soleil en raison de sa concurrence déloyale avec l'industrie de l'éclairage, ici modernisée pour notre temps.

Mais cette fois, c'est différent, pensez-vous. Cette fois, avec l'IA, nous avons la technologie qui peut remplacer TOUT le travail humain.

Mais, en utilisant les principes que j'ai décrits ci-dessus, pensez à ce que cela signifierait que littéralement tout le travail humain existant soit remplacé par des machines.

Cela signifierait un taux de décollage de la croissance de la productivité économique qui serait absolument stratosphérique, bien au-delà de tout précédent historique. Les prix des biens et services existants tomberaient à pratiquement zéro. Le bien-être des consommateurs monterait en flèche. Le pouvoir d'achat des consommateurs monterait en flèche. La nouvelle demande dans l'économie exploserait. Les entrepreneurs créeraient des gammes vertigineuses de nouvelles industries, produits et services, et emploieraient autant de personnes et d'IA qu'ils le pourraient le plus rapidement possible pour répondre à toute la nouvelle demande.

Supposons que l'IA remplace à nouveau ce travail ? Le cycle se répéterait, entraînant encore plus le bien-être des consommateurs, la croissance économique et la croissance de l'emploi et des salaires. Ce serait une spirale droite jusqu'à une utopie matérielle dont ni Adam Smith ni Karl Marx n'ont jamais osé rêver.

Nous devrions être aussi chanceux.

En parlant de Karl Marx, l'inquiétude que l'IA prenne des emplois découle directement du risque suivant revendiqué par l'IA, qui est, OK, Marc, supposons que l'IA prenne tous les emplois, pour le mal ou pour le bien. Cela n'entraînera-t-il pas une inégalité de richesse massive et paralysante, car les propriétaires de l'IA récoltent toutes les récompenses économiques et les gens ordinaires n'obtiennent rien ?

Il se trouve que c'était une affirmation centrale du marxisme, que les propriétaires des moyens de production - la bourgeoisie - voleraient inévitablement toute la richesse de la société aux personnes qui font le travail réel - le prolétariat. C'est une autre erreur qui ne mourra tout simplement pas, peu importe combien de fois elle est réfutée par la réalité. Mais plantons quand même un pieu dans son cœur.

Le défaut de cette théorie est qu'en tant que propriétaire d'une technologie, vous n'avez pas intérêt à la garder pour vous. Au contraire, vous avez intérêt à la vendre au plus grand nombre de clients. Le plus grand marché au monde pour n'importe quel produit est le monde entier, nous sommes tous 8 milliards. Et donc en réalité, chaque nouvelle technologie - même celles qui commencent par se vendre à l'air raréfié des grandes entreprises bien rémunérées ou des consommateurs fortunés - prolifère rapidement jusqu'à ce qu'elle soit entre les mains du plus grand marché de masse possible, en fin de compte tout le monde sur la planète.

L'exemple classique en est le soi-disant "plan secret" d'Elon Musk - qu'il a naturellement publié ouvertement - pour Tesla en 2006 :

Étape 1, Construisez une voiture de sport [coûteuse]

Étape 2, utilisez cet argent pour construire une voiture abordable

Étape 3, utilisez cet argent pour construire une voiture encore plus abordable

… ce qui est bien sûr exactement ce qu'il a fait, devenant ainsi l'homme le plus riche du monde.

Ce dernier point est essentiel. Elon serait-il encore plus riche s'il ne vendait des voitures qu'aux riches aujourd'hui ? Non. Serait-il encore plus riche que ça s'il ne fabriquait que des voitures pour lui-même ? Bien sûr que non. Non, il maximise son propre profit en vendant au plus grand marché possible, le monde.

En bref, tout le monde y trouve son compte - comme nous l'avons vu dans le passé avec non seulement les voitures mais aussi l'électricité, la radio, les ordinateurs, Internet, les téléphones portables et les moteurs de recherche. Les fabricants de ces technologies sont très motivés pour faire baisser leurs prix jusqu'à ce que tout le monde sur la planète puisse se les offrir. C'est précisément ce qui se passe déjà dans l'IA - c'est pourquoi vous pouvez utiliser l'IA générative de pointe non seulement à faible coût mais même gratuitement aujourd'hui sous la forme de Microsoft Bing et Google Bard - et c'est ce qui continuera à se produire. Non pas parce que ces vendeurs sont insensés ou généreux, mais précisément parce qu'ils sont cupides - ils veulent maximiser la taille de leur marché, ce qui maximise leurs profits.

Ce qui se passe est donc à l'opposé de la technologie entraînant la centralisation de la richesse - les clients individuels de la technologie, y compris en fin de compte tout le monde sur la planète, sont plutôt responsabilisés et captent la majeure partie de la valeur générée. Comme pour les technologies précédentes, les entreprises qui construisent l'IA - en supposant qu'elles doivent fonctionner sur un marché libre - se livreront une concurrence acharnée pour y parvenir.

Marx avait tort alors, et il a tort maintenant.

Cela ne veut pas dire que l'inégalité n'est pas un problème dans notre société. C'est, ce n'est tout simplement pas poussé par la technologie, c'est poussé par l'inverse, par les secteurs de l'économie qui sont les plus résistants aux nouvelles technologies, qui ont le plus d'interventions gouvernementales pour empêcher l'adoption de nouvelles technologies comme l'IA - en particulier le logement, l'éducation et les soins de santé. Le risque réel de l'IA et des inégalités n'est pas que l'IA causera plus d'inégalités, mais plutôt que nous ne permettrons pas que l'IA soit utilisée pour réduire les inégalités.

Jusqu'à présent, j'ai expliqué pourquoi quatre des cinq risques les plus souvent proposés de l'IA ne sont pas réellement réels - l'IA ne prendra pas vie et ne nous tuera pas, l'IA ne ruinera pas notre société, l'IA ne causera pas de chômage de masse et l'IA ne causera pas une augmentation ruineuse des inégalités. Mais maintenant, abordons le cinquième, celui avec lequel je suis en fait d'accord : l'IA permettra aux mauvaises personnes de faire plus facilement de mauvaises choses.

C'est en quelque sorte une tautologie. La technologie est un outil. Les outils, à commencer par le feu et les pierres, peuvent être utilisés pour faire de bonnes choses – cuisiner de la nourriture et construire des maisons – et de mauvaises choses – brûler des gens et matraquer des gens. Toute technologie peut être utilisée pour le meilleur ou pour le pire. Assez juste. Et l'IA permettra aux criminels, aux terroristes et aux gouvernements hostiles de faire de mauvaises choses plus facilement, sans aucun doute.

Cela amène certaines personnes à proposer, eh bien, dans ce cas, ne prenons pas le risque, interdisons l'IA maintenant avant que cela ne se produise. Malheureusement, l'IA n'est pas un matériau physique ésotérique difficile à trouver, comme le plutonium. C'est le contraire, c'est le matériau le plus facile à trouver au monde – les mathématiques et le code.

Le chat IA est évidemment déjà sorti du sac. Vous pouvez apprendre à créer de l'IA à partir de milliers de cours, de livres, d'articles et de vidéos en ligne gratuits, et il existe des implémentations open source exceptionnelles qui prolifèrent de jour en jour. L'IA est comme l'air - elle sera partout. Le niveau d'oppression totalitaire qui serait nécessaire pour arrêter cela serait si draconien – un gouvernement mondial surveillant et contrôlant tous les ordinateurs ? des voyous bottés dans des hélicoptères noirs saisissant des GPU voyous ? – qu'il ne nous resterait plus une société à protéger.

Donc, à la place, il existe deux façons très simples de gérer le risque que des personnes malveillantes fassent de mauvaises choses avec l'IA, et c'est précisément sur cela que nous devrions nous concentrer.

Premièrement, nous avons des lois dans les livres pour criminaliser la plupart des mauvaises choses que n'importe qui va faire avec l'IA. Pirater le Pentagone ? C'est un crime. Voler de l'argent dans une banque ? C'est un crime. Créer une arme biologique ? C'est un crime. Commettre un acte terroriste ? C'est un crime. Nous pouvons simplement nous concentrer sur la prévention de ces crimes lorsque nous le pouvons et les poursuivre lorsque nous ne le pouvons pas. Nous n'avons même pas besoin de nouvelles lois - je ne suis pas au courant d'une seule mauvaise utilisation réelle de l'IA qui a été proposée qui ne soit pas déjà illégale. Et si une nouvelle mauvaise utilisation est identifiée, nous interdisons cette utilisation. CQFD.

Mais vous remarquerez ce que j'ai glissé là-dedans – j'ai dit que nous devrions d'abord nous concentrer sur la prévention des crimes assistés par l'IA avant qu'ils ne se produisent – ​​une telle prévention ne signifierait-elle pas l'interdiction de l'IA ? Eh bien, il existe un autre moyen d'empêcher de telles actions, et c'est en utilisant l'IA comme outil défensif. Les mêmes capacités qui rendent l'IA dangereuse entre les mains de méchants avec de mauvais objectifs la rendent puissante entre les mains de bons avec de bons objectifs - en particulier les bons dont le travail consiste à empêcher que de mauvaises choses ne se produisent.

Par exemple, si vous craignez que l'IA génère de fausses personnes et de fausses vidéos, la réponse est de créer de nouveaux systèmes où les gens peuvent se vérifier et vérifier le contenu réel via des signatures cryptographiques. La création numérique et la modification de contenus réels et faux étaient déjà là avant l'IA ; la réponse n'est pas d'interdire les traitements de texte et Photoshop - ou l'IA - mais d'utiliser la technologie pour construire un système qui résout réellement le problème.

Et donc, deuxièmement, déployons des efforts majeurs pour utiliser l'IA à des fins bonnes, légitimes et défensives. Mettons l'IA au travail dans la cyberdéfense, la défense biologique, la chasse aux terroristes et dans tout ce que nous faisons pour assurer notre sécurité, celle de nos communautés et de notre nation.

Il y a déjà beaucoup de gens intelligents dans et hors du gouvernement qui font exactement cela, bien sûr - mais si nous appliquons tous les efforts et l'intelligence qui sont actuellement obsédés par la perspective futile d'interdire l'IA à utiliser l'IA pour se protéger contre les mauvaises personnes qui font de mauvaises choses, Je pense qu'il ne fait aucun doute qu'un monde infusé d'IA sera beaucoup plus sûr que le monde dans lequel nous vivons aujourd'hui.

Il existe un dernier et réel risque lié à l'IA qui est probablement le plus effrayant du tout :

L'IA n'est pas seulement développée dans les sociétés occidentales relativement libres, elle est également développée par le Parti communiste de la République populaire de Chine.

La Chine a une vision de l'IA très différente de la nôtre - elle la considère comme un mécanisme de contrôle autoritaire de la population, point final. Ils ne sont même pas secrets à ce sujet, ils sont très clairs à ce sujet et ils poursuivent déjà leur programme. Et ils n'ont pas l'intention de limiter leur stratégie d'IA à la Chine - ils ont l'intention de la faire proliférer dans le monde entier, partout où ils alimentent les réseaux 5G, partout où ils prêtent de l'argent de la ceinture et de la route, partout où ils fournissent des applications conviviales pour les consommateurs comme Tiktok qui servent en tant que frontaux de leur IA centralisée de commandement et de contrôle.

Le plus grand risque de l'IA est que la Chine gagne la domination mondiale de l'IA et nous - les États-Unis et l'Occident - pas.

Je propose une stratégie simple pour savoir quoi faire à ce sujet - en fait, la même stratégie que le président Ronald Reagan a utilisée pour gagner la première guerre froide avec l'Union soviétique.

"Nous gagnons, ils perdent."

Plutôt que de laisser des paniques non fondées autour de l'IA tueuse, de l'IA "nocive", de l'IA destructrice d'emplois et de l'IA génératrice d'inégalités pour nous mettre sur nos pieds, nous, aux États-Unis et en Occident, devrions nous pencher sur l'IA aussi fort que possible. .

Nous devrions chercher à gagner la course à la supériorité technologique mondiale de l'IA et veiller à ce que la Chine ne le fasse pas.

Dans le processus, nous devrions introduire l'IA dans notre économie et notre société aussi vite et fort que possible, afin de maximiser ses gains pour la productivité économique et le potentiel humain.

C'est le meilleur moyen à la fois de compenser les risques réels de l'IA et de garantir que notre mode de vie ne soit pas déplacé par la vision chinoise beaucoup plus sombre.

Je propose un plan simple :

Et c'est ainsi que nous utilisons l'IA pour sauver le monde.

Il est temps de construire.

Je termine avec deux déclarations simples.

Le développement de l'IA a commencé dans les années 1940, en même temps que l'invention de l'ordinateur. Le premier article scientifique sur les réseaux de neurones - l'architecture de l'IA que nous avons aujourd'hui - a été publié en 1943. Des générations entières de scientifiques de l'IA au cours des 80 dernières années sont nées, sont allées à l'école, ont travaillé et, dans de nombreux cas, sont décédées sans voir le récompense que nous recevons maintenant. Ce sont des légendes, toutes.

Aujourd'hui, des légions croissantes d'ingénieurs - dont beaucoup sont jeunes et peuvent avoir eu des grands-parents ou même des arrière-grands-parents impliqués dans la création des idées derrière l'IA - travaillent pour faire de l'IA une réalité, contre un mur de peur et de doomérisme qui tente de les peindre comme des méchants téméraires. Je ne crois pas qu'ils soient téméraires ou méchants. Ce sont des héros, tous. Mon entreprise et moi sommes ravis de soutenir autant d'entre eux que possible, et nous nous tiendrons à leurs côtés et à leur travail à 100 %.

* * *

Les opinions exprimées ici sont celles du personnel individuel d'AH Capital Management, LLC ("a16z") cité et ne sont pas les opinions d'a16z ou de ses sociétés affiliées. Certaines informations contenues ici ont été obtenues de sources tierces, y compris de sociétés de portefeuille de fonds gérés par a16z. Bien qu'elles proviennent de sources considérées comme fiables, a16z n'a pas vérifié ces informations de manière indépendante et ne fait aucune déclaration quant à l'exactitude actuelle ou durable des informations ou à leur pertinence dans une situation donnée. De plus, ce contenu peut inclure des publicités de tiers ; a16z n'a pas examiné ces publicités et n'approuve aucun contenu publicitaire qu'elles contiennent.

Ce contenu est fourni à titre informatif uniquement et ne doit pas être considéré comme un conseil juridique, commercial, d'investissement ou fiscal. Vous devriez consulter vos propres conseillers sur ces questions. Les références à des titres ou à des actifs numériques sont uniquement à des fins d'illustration et ne constituent pas une recommandation d'investissement ou une offre de fournir des services de conseil en investissement. En outre, ce contenu n'est ni destiné ni destiné à être utilisé par des investisseurs ou des investisseurs potentiels, et ne peut en aucun cas être invoqué pour prendre une décision d'investir dans un fonds géré par a16z. (Une offre d'investissement dans un fonds a16z ne sera faite que par le mémorandum de placement privé, le contrat de souscription et toute autre documentation pertinente de ce fonds et doit être lu dans son intégralité.) Tous les investissements ou sociétés de portefeuille mentionnés, référencés ou décrits ne sont pas représentatifs de tous les investissements dans des véhicules gérés par a16z, et rien ne garantit que les investissements seront rentables ou que d'autres investissements réalisés à l'avenir auront des caractéristiques ou des résultats similaires. Une liste des investissements effectués par des fonds gérés par Andreessen Horowitz (à l'exclusion des investissements pour lesquels l'émetteur n'a pas autorisé a16z à divulguer publiquement ainsi que des investissements non annoncés dans des actifs numériques cotés en bourse) est disponible sur https://a16z.com/investments /.

Les tableaux et graphiques fournis ici sont uniquement à des fins d'information et ne doivent pas être utilisés pour prendre une décision d'investissement. Les performances passées ne représentent pas les résultats futurs. Le contenu ne parle qu'à la date indiquée. Toutes les projections, estimations, prévisions, objectifs, perspectives et/ou opinions exprimées dans ces documents sont susceptibles d'être modifiées sans préavis et peuvent différer ou être contraires aux opinions exprimées par d'autres. Veuillez consulter https://a16z.com/disclosures pour des informations supplémentaires importantes.

Table des matières