Bloomberg: Comment l'IA va-t-elle perturber la structure des entreprises ?

Les systèmes économiques ont longtemps été construits sur l’idée que l’expertise est rare et chère. Et l’intelligence artificielle est sur le point de rendre cette expertise riche et quasi gratuite. Cet article est tiré d’un article écrit par AI Pioneer Officer et réimprimé par TechFlow. (Synopsis : Les ingénieurs seniors le ressentent : les développeurs juniors « s’appuient désormais sur l’IA » pour perdre leur indépendance d’esprit, Musk a également répondu) (Supplément de contexte : OpenAI débloque la recherche approfondie : les utilisateurs payants peuvent interroger 10 fois par mois, Microsoft publie l’agent d’IA multimodal Magma) Pendant la majeure partie de l’histoire de l’humanité, l’embauche d’une douzaine d’experts titulaires d’un doctorat a souvent nécessité d’énormes budgets et des mois de temps de préparation. De nos jours, il suffit de taper quelques mots-clés dans un chatbot pour obtenir instantanément l’intelligence de ces « cerveaux ». Au fur et à mesure que le coût de la sagesse diminuera et s’accélérera, l’hypothèse de base qui sous-tend nos institutions sociales – selon laquelle « la perspicacité humaine est rare et coûteuse » – cessera d’exister. Lorsque l’on peut faire appel à l’avis d’une dizaine d’experts à tout moment, comment la structure organisationnelle de l’entreprise va-t-elle évoluer ? Comment notre approche de l’innovation va-t-elle évoluer ? Comment chacun d’entre nous devrait-il gérer l’apprentissage et la prise de décision ? La question qui se pose aux particuliers et aux entreprises est la suivante : comment agirez-vous lorsque l’intelligence elle-même sera disponible partout et à peu de frais ? Le processus historique de « réduction des prix » intelligent Historiquement, nous avons assisté plus d’une fois à la baisse drastique du coût de la connaissance et à l’expansion rapide des canaux de transmission. L’avènement de l’imprimerie au milieu du XVe siècle a considérablement augmenté le coût de la diffusion des documents écrits. Auparavant, les textes étaient souvent transcrits à la main par des professionnels tels que les moines, ce qui était coûteux et chronophage. Lorsque ce goulot d’étranglement a été brisé, l’Europe a inauguré de profonds changements sociaux : la Réforme protestante a provoqué un énorme choc sur le plan religieux ; l’alphabétisation rapide à Hausse (jeter les bases de l’éducation primaire universelle) ; La recherche scientifique prospère grâce aux publications imprimées. Des pays orientés vers les affaires tels que les Pays-Bas et le Royaume-Uni en ont bénéficié, les Pays-Bas entrant dans un « âge d’or » tandis que le Royaume-Uni a continué à jouer un rôle important sur la scène mondiale au cours des siècles suivants. Au fil du temps, la diffusion de l’alphabétisation de masse et de l’éducation publique a accru la sagesse globale de la société, ce qui a également jeté les bases de l’industrialisation. La spécialisation croissante des emplois en usine et la division plus complexe du travail ont entraîné la hausse de l’économie. À la fin du XVIIIe siècle, les pays où le taux d’alphabétisation des hommes était élevé ont été les premiers à s’industrialiser ; À la fin du 19e siècle, les économies les plus avancées sur le plan technologique avaient également tendance à avoir les taux d’alphabétisation les plus élevés. L’acquisition de nouvelles compétences a conduit à la création de postes plus professionnalisants, créant un cercle vertueux qui perdure encore aujourd’hui. L’avènement d’Internet a poussé cette tendance vers de nouveaux sommets. Dans mon enfance, si je voulais faire des recherches sur un nouveau sujet, j’avais besoin d’aller à la bibliothèque avec mes notes pour chercher une bibliographie, et cette étape à elle seule prenait la majeure partie de la journée. À cette époque, l’accès au savoir était coûteux et pas facile. Aujourd’hui, l’intelligence artificielle a pris le relais de la « Goutte Smart Cost » du millénaire, ouvrant un nouveau chapitre de notre économie et de notre façon de penser. Mon « moment d’épiphanie » avec ChatGPT J’ai senti que c’était un produit marquant lorsque j’ai utilisé ChatGPT pour la première fois en décembre 2022. Au début, je l’ai juste utilisé pour faire quelques « trucs de chiffres », comme demander à l’IA de « réécrire la Déclaration d’indépendance dans le style d’Eminem » (elle a écrit une adaptation de quelque chose comme « Yo, disons dis-le à voix haute, les gens ici ne seront jamais abattus », et ainsi de suite). Avec le recul, c’était comme si un chef du Cordon Bleu vous préparait un sandwich au fromage, ce qui était exagéré. Ce n’est qu’un après-midi de janvier 2023, lorsque ma fille de 12 ans et moi avons passé quelques heures à concevoir un tout nouveau jeu de table avec ChatGPT, que nous avons vraiment réalisé la puissance de ces outils. À ce moment-là, j’ai d’abord dit à l’IA quels jeux de société nous aimions et lesquels nous n’aimions pas, et je lui ai demandé d’analyser les points communs. Il a constaté que nous aimions les mécanismes de jeu qui pouvaient « paver des chemins », « gérer les ressources », « collecter des cartes », « élaborer des stratégies » et « gagner ou perdre », et que nous n’aimions pas certains des modes que l’on trouve couramment dans Risk ou Monopoly. Je lui ai demandé de s’appuyer sur ces éléments pour trouver des idées de jeu moins évidentes, mais importantes, et, espérons-le, avoir un contexte historique. ChatGPT a mis au point un jeu appelé « Elemental Discoveries » : les joueurs jouent le rôle de chercheurs en chimie aux 18 ~ 19e siècles, en collectant et en échangeant des ressources pour mener des expériences, obtenir des scores et interférer les uns avec les autres. Ensuite, je lui ai demandé d’affiner davantage les ressources, le gameplay, les mécanismes de jeu et les personnages qui correspondent au joueur. Il propose le positionnement d'« alchimiste », de « saboteur », de « marchand », de « scientifique », etc., et les associe également à l’image des chimistes dans l’histoire, tels que Lavoisier, Joseph-Louis-Lussac, Marie Curie, Karl Wilhelm Scheler, etc. Avec ChatGPT, qui était encore relativement « rudimentaire » à l’époque, nous avons pu créer un jeu de société approximatif mais raisonnablement jouable en seulement deux ou trois heures. Finalement, j’ai dû m’arrêter, d’une part par manque de temps, d’autre part j’étais épuisée. Cette expérience m’a fait réaliser par moi-même que les « collaborateurs » de l’IA peuvent compresser un processus de développement qui prendrait autrement des semaines en quelques heures seulement. Pensez au potentiel si vous l’utilisez pour le développement de produits, l’analyse de marché et même la stratégie d’entreprise. Dans le processus, ce que je vois dans ChatGPT n’est pas seulement de relire ou d’accumuler des faits ; Ses performances démontrent sa capacité à penser de manière analogique et conceptuelle, en reliant des idées à des références du monde réel pour produire des solutions véritablement créatives à la demande. De « Random Parrot » à « Depth Thinker », un trillion, c’est déjà un ordre de grandeur. Les grands modèles de langage de ChatGPT peuvent être incroyablement complexes avec des milliards, des centaines de milliards, voire des milliards d’arguments. Nous ne comprenons toujours pas pourquoi et comment ces modèles fonctionnent. Bien qu’ils aient fait des percées à plusieurs reprises au cours des sept dernières années, certains théoriciens insistent sur le fait qu’ils ne peuvent rien faire de vraiment nouveau – en 2021, certains chercheurs ont même inventé le terme péjoratif de « perroquets stochastiques ». Parce que les grands modèles de langage prédisent essentiellement les mots selon les lois statistiques des données d’apprentissage, comme si les perroquets répétaient les mots au hasard. Cependant, pour ceux qui continuent d’expérimenter et de s’émerveiller devant ces outils, il est difficile de croire qu’ils ne font que relire. Surtout au cours des six derniers mois, ce point de vue est devenu encore plus intenable. À l’origine, les modèles de langage à grande échelle ressemblaient davantage à « parler intuitivement », manquant à la fois de la capacité de « réfléchir » et de la « conscience de soi ». Selon les mots du lauréat du prix Nobel d’économie Daniel Kahneman, les humains s’appuient principalement sur la pensée du système 1 (intuitive, à réaction rapide), mais lorsque nous avons vraiment besoin de réfléchir profondément, nous passons au système 2 (lent, prudent et moins sujet aux erreurs). La plupart des versions précédentes de ChatGPT et de ses concurrents n’ont qu’une performance similaire à celle du système 1 et n’ont pas le flux d’inférence du système 2. Cette situation a commencé à changer en septembre 2024, lorsqu’OpenAI a publié un modèle d’inférence appelé o1, qui permet de décomposer des problèmes logiques complexes en plusieurs étapes, de vérifier les conclusions intermédiaires (et de les corriger rétroactivement si nécessaire) et de mieux arriver au résultat final. Par rapport aux grands modèles de langage traditionnels qui ne peuvent s’appuyer que sur la mémoire ou la correspondance de motifs de surface, les nouveaux modèles d’inférence ont progressivement...

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)