Pourquoi l'intelligence artificielle est différente des vagues technologiques précédentes

Si vous aimez cet article, consultez un autre article de Robbie:
Qu’arrêtera-t-il AI Momentum?

Avant que je ne parle, lors de la première conférence sur l’intelligence artificielle O’Reilly en septembre 2016. Je pensais que nous avions atteint Peak AI Hype à ce moment-là, mais cela n’a cessé de croître.

Je suis informaticien depuis que mon frère aîné a acheté un Commodore 64 pour Noël en 1983. J'ai suivi mon premier cours de «machines de bureau» au lycée en 1991, puis mon premier cours d'informatique en 1994 (en apprenant Pascal) et je suis passé à Silicon Valley en 1997 après que Cisco ait converti mon stage en poste permanent. J'ai travaillé pendant plusieurs années dans le service informatique de Cisco avant de rejoindre le groupe d'ingénierie où j'ai conçu les protocoles de réseau. J’ai fait mes études supérieures au MIT en 2004, où j’ai rencontré les fondateurs de plusieurs sociétés lors des deux premiers lots de Y Combinator et travaillé sur Hubspot avant qu’il s’agisse de Hubspot. Après avoir écrit plusieurs livres pour O'Reilly et participé aux premières conférences O'Reilly Web 2.0 et MIT Sloan Sports Analytics, j'ai lancé une société «Web 2.0 for Sports» appelée StatSheet.com en 2007, qui a été intégrée en 2010 au premier langage naturel. Generation (NLG) appelée Automated Insights. J'ai récemment fait demi-tour chez Ai pour devenir un doctorat. étudiant à UNC étudiant l'intelligence artificielle.

Tout cela pour dire que j’avais une vue plongeante sur l’incroyable innovation technologique des 30 dernières années. J'ai eu la chance d'être au bon endroit au bon moment.

J'ai aussi vu ma part de manies technologiques - je veux ma WebTV. En tant que mordu de la technologie, j'ai une prédisposition aux objets brillants et, après avoir géré plus d'une centaine de programmeurs au cours de ma carrière, cela semble être un trait partagé par de nombreux développeurs. Étant plus âgé et ayant vu défiler une variété de technologies (dont une nommée Wave), il est un peu plus facile d’appliquer des motifs à la dernière nouveauté censée révolutionner nos vies. Je suis de plus en plus sceptique à l’égard de la plupart des nouvelles technologies en voyant les gens être séduits par la pensée éclair.

Bien que je pense que l’intelligence artificielle fait l’objet d’une surenchère à bien des égards, je suis extrêmement optimiste quant à son potentiel, même lorsque vous tenez compte de tout le battage médiatique. Il existe une combinaison unique de facteurs qui feront de l'intelligence artificielle la technologie la plus puissante de notre vie. Oui, j'ai bu le kool-aid, mais je pense que c'est pour une bonne raison.

M. Kool-Aid Man dans une voiture autonome de Google

Vendre de l'IA «avant qu'il ne soit cool» n'était pas cool

Lorsque l'intelligence artificielle a recommencé à faire son retour en 2011, j'étais prudemment optimiste. J'ai démarré une entreprise en 2010 avec les initiales AI (pour Automated Insights) avant qu'IA ne soit cool. Mon intuition était que ce serait un travail de longue haleine pendant quelques années, mais si Ray Kurzweil était même partiellement précis quant au rythme auquel se produirait l'intelligence artificielle, positionner une entreprise dans l'espace de l'IA au début des années 2010 finirait par s'arranger: .

En 2012, essayer de vendre l'IA comme une capacité était difficile à dire. Notre société a mis au point une solution qui automatise l’analyse quantitative et le processus de reporting. C'est-à-dire que nous avons automatisé ce qui n'avait été fait que manuellement auparavant avec des rapports manuscrits d'analyse de données. Depuis lors, nous avons tout automatisé, des récapitulatifs de football fantastique pour Yahoo! aux rapports de vente de l’une des plus grandes compagnies d’assurance. Nous avons automatisé les rapports de revenus pour Associated Press et des récapitulatifs d'entraînement personnalisés pour bodybuilding.com. Essayer de vendre des clients sur «l'écriture automatisée» en 2011 était ce que j'imaginais pour Henry Ford quand il vendait des voitures à des gens qui n'avaient vu que des chevaux: un air interrogateur et l'incrédulité qu'un tel engin était même possible - ou nécessaire.

Quelques années plus tard, les choses ont changé radicalement. Le cycle Gartner Hype (publié depuis 1995) est une mesure cohérente du battage publicitaire entourant les technologies émergentes. Jetez un coup d'œil au rapport 2016:

Source: Gartner

Plusieurs technologies liées à l'IA font leur apparition, notamment les robots intelligents, les véhicules autonomes, les interfaces utilisateur conversationnelles, la réponse aux questions en langage naturel et, bien sûr, l'apprentissage automatique au plus fort des attentes.

Nous sommes passés d’une incrédulité générale à l’idée que les logiciels soient capables d’automatiser des choses qui relevaient strictement de l’être humain, à chaque démarrage ayant une diapositive d’Intelligence artificielle dans son deck. Auparavant, je devais atténuer la mention «intelligence artificielle» afin que nous n'ayons pas l'air trop geek et effrayons les autres. À présent, les clients sont déçus si votre solution n'est pas complètement magique. Auparavant, le moyen le plus rapide de mettre fin à une conversation lors d'un dîner était de mentionner l'IA. Mon agent d'assurance me parle maintenant de ce nouvel "assistant d'IA" cool qu'il utilise pour planifier toutes ses réunions.

Que nous ayons atteint ou non l'IA maximale, la plupart des gens, y compris ma mère à la retraite, en ont entendu parler. La grande question reste: peut-il être à la hauteur du battage publicitaire? Comment l'IA se compare-t-elle aux technologies précédentes en ce qui concerne son potentiel? La réponse est ce qui me passionne pour l'avenir.

Les huit vagues technologiques

J’ai identifié huit technologies de pointe au cours des 30 dernières années qui, à mon avis, sont utiles à des fins de comparaison. J'ai analysé la rapidité avec laquelle chaque technologie a évolué et les facteurs qui ont aidé ou empêché le rythme de l'innovation. Ces huit technologies ne sont certes pas les seules technologies que j’aurais pu choisir, mais chacune d’entre elles a eu un impact significatif sur le paysage technologique global à son apogée. Mon intention n’est pas de passer en revue de manière exhaustive toutes les vagues de technologies qui ont jamais eu lieu, mais de fournir un cadre que nous pouvons utiliser pour comparer et contraster.

Les huit domaines que je couvre dans cet article incluent les systèmes d’exploitation de bureau, les navigateurs Web, les réseaux, les réseaux sociaux, les applications mobiles, l’Internet des objets, le cloud computing et l’intelligence artificielle.

Deux facteurs clés pour le potentiel technologique

Deux facteurs sont des facteurs très importants pour déterminer à quel point et à quelle vitesse une technologie évolue avec le temps.

Le premier facteur est la barrière à l'entrée pour un développeur unique afin de créer quelque chose d'utile. Si les développeurs ont la possibilité de créer ou de peaufiner leur propre implémentation, vous obtenez une dispersion rapide de la technologie et de nombreuses améliorations, grandes et petites, grâce aux contributions de la foule des développeurs.

Les systèmes d'exploitation ont beaucoup d'obstacles à l'entrée en raison de la complexité du logiciel. En règle générale, peu de développeurs consacrent du temps au week-end à modifier un système d'exploitation à des fins spécifiques. D'un autre côté, les applications mobiles sont faciles à créer et à publier avec des compétences limitées (ce qui a été à la fois bon et mauvais, comme je vais l'expliquer).

Le deuxième facteur consiste à déterminer si le développement sur la plate-forme principale est centralisé ou décentralisé. Une entreprise ou une organisation sert-elle de contrôleur pour les nouvelles versions de la plate-forme principale ou est-ce que quelqu'un peut contribuer? Dans l'espace des réseaux sociaux, le développement est complètement centralisé par les propriétaires des plateformes (Twitter, Facebook, etc.) par rapport au réseau; le processus RFC a conduit à un groupe de contributeurs largement distribué.

Une technologie à faible barrière d’entrée et le développement de plates-formes décentralisées ont le plus grand potentiel d’impact futur. Aucune des huit technologies ne possède ces deux caractéristiques sauf l'intelligence artificielle, mais nous en parlerons plus tard.

Pour les besoins de cet article, je suis principalement intéressé par le potentiel d’innovation, et non par la quantité d’innovation qu’il aura ou qui se produira. Les deux facteurs que j'ai mentionnés ne sont pas nécessaires pour qu'une technologie ait un impact énorme. Le cloud computing a eu un impact considérable, même s'il n'y a qu'une poignée de joueurs dans l'espace. Mais l'avenir du Cloud Computing dépend presque entièrement des sociétés qui possèdent les plates-formes. Si le marché se consolide ou devient moins attrayant avec le temps pour les principaux acteurs, l’innovation cessera ou diminuera considérablement, ce qui était l’histoire du navigateur Web au début des années 2000.

Voici comment je classerais les huit technologies en fonction des deux facteurs. Tout comme la courbe Hype de Gartner, la position de chacun dans les quatre quadrants était en grande partie un exercice subjectif basé sur mon analyse. Je vais entrer dans les détails sur chaque technologie, mais je vais d’abord aborder ce que chaque quadrant représente.

Barrière basse + développement centralisé = innovation restreinte
Ce scénario est assez inhabituel car les développeurs peuvent facilement créer, mais le développement de la plate-forme est centralisé. L'innovation est limitée aux caprices du propriétaire de la plate-forme. Les développeurs doivent travailler dans les limites de la plate-forme avec une capacité limitée d'influencer la direction générale, car celle-ci appartient à une seule autorité. Le modèle de l'App Store se situe dans ce quadrant.

Barrière élevée + développement centralisé = innovation propriétaire
Dans ce cas, le développement ne peut être effectué que par le propriétaire de la plate-forme. Les développeurs ont beaucoup de mal à créer et ne peuvent pas contribuer à la plate-forme. C'est le modèle propriétaire classique, qui a dominé dans le développement de produits.

Barrière élevée + développement décentralisé = innovation incompatible
Ce quadrant représente souvent des technologies basées sur l'open source ou ayant des standards ouverts (et dans de nombreux cas optionnels), mais que ce soit en raison de son matériel ou de logiciels très complexes, la barrière à la création pour les développeurs n'est pas triviale. Le résultat peut être une innovation importante, mais avec des solutions incompatibles car les développeurs sont libres d’incorporer les «normes» de leur choix.

Barrière basse + développement décentralisé = innovation entièrement distribuée
C'est optimal pour un environnement qui favorise l'innovation. Les développeurs individuels peuvent créer non seulement parce que la barrière à l'entrée est faible, mais ils peuvent également créer leurs propres plates-formes. L’intelligence artificielle est la seule technologie que j’ai mise dans ce quadrant et je vais en expliquer les raisons dans la section suivante.

L'innovation entièrement distribuée est difficile à faire évoluer dans le temps car sans coordination centrale, on aboutit souvent à un écosystème fragmenté avec de nombreuses solutions incompatibles. Vous pouvez voir que cela commence à se produire dans l'IA lorsque certains frameworks deviennent populaires (par exemple, Tensorflow et PyTorch).

Vue d'ensemble des huit technologies

Ensuite, je vais décrire brièvement les raisons pour lesquelles je place chaque technologie dans un quadrant particulier.

Systèmes d'exploitation de bureau

Les systèmes d'exploitation de bureau ont été dominés par un petit nombre de joueurs. IBM a débuté en 1981 avec son PC initial, Microsoft (et Sun dans une moindre mesure) dans les années 1990, et Apple dans les années 2000. Linux était également dans le coup, mais ne pourrait jamais vraiment se généraliser sur les ordinateurs de bureau / portables.

Les systèmes d’exploitation sont des composants logiciels volumineux. Il n’ya donc pas grand-chose qu’un développeur puisse faire pour améliorer et redistribuer lui-même la plate-forme principale. La complexité et l'ampleur du code sont l'une des principales raisons de la barrière élevée à l'entrée.

À l'exception de Linux, les autres systèmes d'exploitation de bureau populaires étaient propriétaires. Cela signifie que, dans la plupart des cas, l’innovation dans le système d’exploitation est centralisée dans les murs des grandes entreprises. Même dans le cas de Linux, avoir un dictateur bienveillant signifiait que toutes les grandes décisions étaient gérées de manière centralisée. Les gros logiciels monolithiques tels que les systèmes d'exploitation nécessitent une coordination centralisée à un certain niveau pour que le produit final soit une solution totalement intégrée et stable.

La mise en réseau

L’introduction en bourse de Cisco en 1990 marquait le début d’une course incroyable pour les entreprises de réseaux au cours de la prochaine décennie. Diverses entreprises ont été créées puis acquises ou fusionnées. Cisco, Lucent et Nortel ont été les principaux acteurs (et finalement Juniper) avant que le naufrage de la bulle Internet ne supprime le marché.

Les protocoles Internet ont eu un processus de développement décentralisé avec Request For Comments (RFC) depuis la publication du premier RFC en 1969. Il existe des organismes de normalisation, tels que l'IETF, qui peuvent ratifier les RFC en tant que normes officielles. Bien que la définition des protocoles ait été décentralisée, les plates-formes centrales utilisant ces protocoles (par exemple, les routeurs Cisco) étaient toujours propriétaires et fermées.

Et comme les principaux fournisseurs de réseaux avaient leur propre matériel, il était difficile pour un développeur individuel de contribuer. S'il était possible pour un tiers de contribuer à une spécification de protocole, seuls les développeurs des sociétés de réseau pouvaient ajouter ces protocoles à leurs plates-formes.

J'inclus le réseau dans cette liste, non pas tant parce qu'il s'agissait d'une vague technologique majeure, mais à cause de leur processus de normalisation unique.

Navigateur Web

Alors que les guerres des systèmes d'exploitation faisaient rage, l'application la plus importante sur le bureau a également connu une bataille similaire. Qu'il s'agisse de Netscape et d'IE dans les années 90 ou de Chrome, IE et Firefox aujourd'hui, le navigateur a toujours été une application très convoitée, car il s'agit de l'interface frontale du Web.

Bien que IE soit le seul navigateur majeur à ne pas être open source ou basé sur l'open source, la barrière à l'entrée est toujours élevée. Comme les systèmes d'exploitation, les navigateurs Web modernes sont devenus des logiciels très complexes. Il n’est pas courant pour un développeur moyen de créer un navigateur qui le personnalise pour l’utilisation de son entreprise. Chaque navigateur offre un support variable pour les extensions ou les plug-ins, mais ceux-ci ont tendance à être assez limités en termes de capacités et sont souvent fragiles.

Compte tenu de la nature open-source de certains navigateurs, le développement sur la plate-forme principale est décentralisé, mais dans la pratique, les modifications sont surveillées de près. Compte tenu de la vaste base d’utilisateurs des navigateurs, les propriétaires de navigateurs doivent examiner chaque modification ou risquer d’envoyer un produit défectueux à des millions d’utilisateurs.

Application mobile

Je pourrais énumérer «Mobile» ou «Smartphones» ici au lieu d’applications mobiles, mais bon nombre des problèmes que je décris sous Systèmes d’exploitation de bureau s’appliqueraient. Les applications mobiles sont un peu plus intéressantes pour nos besoins en raison de leur faible barrière à l'entrée. Quand Apple est sorti avec l'App Store, cela a changé les choses pour toujours dans l'informatique mobile. Semblables aux pages Web, mais plus riches en fonctionnalités, les applications mobiles ont inauguré une nouvelle ère de fonctionnalités grand public.

Pour un développeur qui crée quelque chose d’utile, cela n’est pas plus simple qu’une application mobile. Certains pourraient faire valoir que la barrière à l'entrée est trop basse, de sorte que les magasins d'applications sont remplis de bric-à-brac. Si c’était un peu plus difficile à créer, peut-être que les copains du script et les imitateurs du monde n’auraient pas contribué, mais c’est le compromis qui se trouve d’être ouvert à tous. Un petit pourcentage créera d'excellentes applications, mais pas la grande majorité.

Réseaux sociaux

Que ce soit Facebook et Twitter ou Foursquare et LinkedIn, les réseaux sociaux ont tous été propriétaires avec une standardisation limitée. Il y a eu quelques tentatives d'open source sur les réseaux sociaux, mais aucune n'a atteint une masse critique. Cela signifie que pratiquement tout le développement dans l'espace des réseaux sociaux provient d'un petit nombre d'entreprises.

En ce qui concerne la capacité d’un développeur à créer quelque chose d’utile, vous pouvez examiner les réseaux sociaux de deux manières. C’est pourquoi je lui ai attribué un score moyen sur la barrière à l’entrée. Il est vrai que vous ne pourrez pas contribuer à leur plate-forme si vous n'êtes pas employé par l’une des sociétés du réseau social. D'autre part, les réseaux sociaux ne sont pas aussi complexes qu'un système d'exploitation ou un navigateur Web. La complexité consiste à essayer d’étendre les réseaux sociaux à des millions (ou des milliards) d’utilisateurs. Un développeur peut concocter une application Web qui ressemble à Facebook ou Twitter en un week-end. Les faire fonctionner pour des millions d'utilisateurs est une autre histoire.

L’autre problème qui fait que les réseaux sociaux ont une barrière élevée à l’entrée concerne les effets de réseau requis avant qu’ils ne deviennent utiles. Si vous n’obtenez pas une masse critique d’utilisateurs, le réseau a une valeur limitée. Obtenir des effets de réseau est extrêmement difficile, et pas seulement pour un développeur.

Cloud computing

Amazon, suivi de près par Google et Microsoft, a fait un travail remarquable en ouvrant une nouvelle ère de fonctionnalités de Cloud Computing et de tarification avec AWS. Cependant, en raison des exigences matérielles importantes, le Cloud Computing est une activité très capitalistique pour réussir à grande échelle. Cela aboutit généralement à un développement centralisé de la plate-forme principale où des entreprises individuelles détiennent les clés du royaume, ce qui est le cas ici (Amazon, Google, Microsoft, etc.).

Le Cloud Computing a été optimisé pour permettre aux développeurs de créer des choses intéressantes. La barrière à créer est donc faible. Le Cloud Computing a permis de nombreuses innovations, mais cela ne se poursuivra que tant qu'Amazon, Google et Microsoft jugeront qu'il vaut la peine d'investir dans cet espace.

Internet des objets

Il a été intéressant de regarder l'évolution de l'Internet des objets (IoT) au cours des dix dernières années, à mesure qu'il gagnait et perdait de l'ampleur à quelques reprises. En ce qui concerne mes deux facteurs, l'IdO est un sac mélangé. En ce qui concerne les barrières à l’entrée, la plupart des blocs logiciels (et même du matériel) nécessaires à la construction d’un dispositif IoT sont couramment disponibles, mais la commercialisation d’un dispositif IoT commercial est une entreprise de taille; il suffit de me demander si l’un des projets Kickstarter a échoué. dans lequel j'ai investi.

L’Internet des Objets a bénéficié d’une certaine normalisation, mais c’est aussi un espace très fragmenté. Cela ressemble à l'environnement de réseau que j'ai décrit précédemment. Ce n’est pas parce qu’il existe des «normes» que les entreprises doivent les utiliser. En conséquence, vous avez probablement chez vous ou au bureau une variété d’appareils IoT qui utilisent des normes différentes ou ne fonctionnent pas ensemble.

Intelligence artificielle

J'ai d'abord réalisé que quelque chose était différent avec l'écosystème de l'IA lorsque j'ai commencé à approfondir les dernières recherches sur divers sujets: LSTM, GAN, CNN, Seq-to-seq. Il y a tellement de nouvelles recherches qui sortent; c’est difficile à suivre. Se mettre à jour avec l'état actuel des connaissances et se tenir au courant des dernières recherches est un défi pour le moins.

En regardant les deux facteurs, premièrement, la barrière à l'entrée pour un développeur de faire quelque chose d'intéressant avec l'IA est faible. Tous les outils dont vous avez besoin sont disponibles gratuitement. Les barrières sont purement auto-motivées. Pour faire quelque chose d'intéressant, vous avez besoin d'un ensemble de données important (bien qu'il y ait un débat quant à la quantité dont vous avez besoin) et d'autre part, vous avez besoin de la largeur de bande mentale pour comprendre comment construire un modèle utile. C’est ce dernier point qui me laisse un peu sceptique face au grand nombre d’entreprises qui prétendent faire des choses intéressantes avec l’IA, en particulier le Machine Learning. Construire un programme ML n’est pas comme construire une application mobile. C’est plus compliqué, surtout si vous faites quelque chose d’intéressant (même si Amazon a considérablement simplifié le processus).

En ce qui concerne les plates-formes principales, il n’en est qu’à ses débuts et il n’existe pas de plates-formes lourdes qui définissent l’expérience de l’IA comme les autres technologies que j’ai abordées. Toutes les plateformes d'apprentissage machine et d'apprentissage en profondeur, telles que Tensorflow, PyTorch, Theano et Keras, sont à source ouverte et possèdent des communautés dynamiques.

La clé qui différencie l'IA de la plupart des autres technologies réside dans sa solide expérience en recherche. Par défaut, le domaine informatique a été une communauté ouverte marquée par des conférences académiques au cours desquelles des chercheurs ont présenté leurs dernières découvertes. Beaucoup de personnalités du monde de l'IA sont issues du monde universitaire où la publication de leurs recherches était la norme. Au lieu de garder l'innovation fermée ou d'attendre le dernier moment une fois qu'une idée est entièrement cuite et que de nombreux codes ont été écrits, la plupart des recherches reposent sur quelques mois de travail et un code limité. Le but est de transmettre les idées à la communauté le plus rapidement possible pour que les autres puissent les améliorer (et vous en méritez le crédit avant que quelqu'un d'autre ne le fasse).

La chose la plus proche que nous ayons vue de ce type d’écosystème est celle des organismes de normalisation Internet ou des mouvements open source mentionnés précédemment, mais l’IA est toujours différente de façon importante. En matière de recherche sur l'IA, aucun organe directeur n'approuve de nouvelles avancées. L’IETF et d’autres organisations sont devenues notoires pour avoir joué aux favoris des opérateurs historiques tout en étant très politiques avec les grandes puissances de l’industrie, les obligeant à se faire représenter afin qu’elles puissent diriger les groupes de normalisation de manière particulière. La chose qui s'en rapproche le plus dans la communauté de la recherche est le processus de soumission de papier lors des grandes conférences universitaires et les récompenses du meilleur article. Bien que ces éloges soient agréables, ils ne sont pas une condition nécessaire pour que votre nouvelle idée soit retenue par la foule des chercheurs.

Même avec Google, Facebook, Amazon et Baidu, ils obtiennent un doctorat. étudiants aussi rapidement que possible, en recyclant leurs effectifs sur Machine Learning et en investissant des milliards de dollars dans l’espace, c’est l’une des rares fois au cours des 30 dernières années où une grande partie de cet investissement a permis de faire avancer l’industrie au lieu de juste le programme d'une entreprise particulière.

Confluence des circonstances

Je dis souvent aux entrepreneurs que la plupart des startups échouent trop tôt. Ils doivent rester assez longtemps pour que les circonstances se confondent en leur faveur. C’est ce qui s’est passé dans mon cas. Les entreprises acquises ont eu un effet domino qui a conduit à l’acquisition de la mine pour un rendement élevé. Ceci étant dit, c’est l’aspect le plus troublant de la vie d’une jeune entreprise: vous ne pouvez pas contrôler tout ce qui vous permettra de réussir. Les forces du marché, les changements technologiques, les conditions économiques, etc. ont tous un impact significatif sur votre entreprise.

La même chose s'applique aux technologies. Malgré les tentatives infructueuses du passé, le boom actuel de l'IA s'est produit au bon moment. Divers facteurs ont contribué à son succès, notamment:

  • L’environnement d’innovation entièrement distribué dont j’ai parlé a entraîné un taux très rapide de nouvelles capacités dans le domaine de l’IA.
  • Après des années de battage médiatique autour du Big Data au milieu des années 2000, en 2010 et 2011, de nombreuses entreprises avaient enfin commencé à développer des infrastructures Big Data.
  • Après s'être concentrées pendant des années sur le «quoi» au lieu du «pourquoi», les entreprises voulaient tirer parti de leurs investissements dans le Big Data. Le problème avec le Big Data n’est pas une fin en soi, mais un moyen de parvenir à une fin. La demande refoulée de tirer quelque chose de significatif du Big Data a incité les entreprises à s'ouvrir à de nouvelles façons d'utiliser leurs données (entrez au stade de l'IA).
  • Grâce en grande partie au monde du jeu vidéo, le calcul optimisé pour l'IA (sous la forme de GPU) est désormais disponible. Les GPU effectuent la multiplication de la matrice plus rapidement que les processeurs traditionnels, ce qui signifie que l'apprentissage par machine et les modèles d'apprentissage en profondeur peuvent fonctionner beaucoup plus rapidement. Nvidia est heureuse.
  • Il existe peu d'obstacles à l'entrée pour développer des solutions d'IA, mais cela nécessite un niveau élevé de connaissances techniques. C'est une différence importante par rapport aux applications mobiles, qui ont également un faible obstacle à développer. Lorsque les App Stores sont gâchés par de nombreuses applications merdiques, à moins que vous ne soyez un développeur sérieux avec un accès à des données significatives, vous ne pourrez pas faire grand-chose avec Machine Learning. En conséquence, l'application AI moyenne sera de meilleure qualité.

AI sera-t-il Lebron James ou Greg Oden?

Dans cet article, j’ai expliqué pourquoi le potentiel d’innovation future avec l’intelligence artificielle est différent de tout ce que nous avons vu lors des précédentes grandes vagues technologiques. Cependant, vous pouvez avoir tout le potentiel du monde sans en tirer pleinement parti. Demandez juste à Tiger Woods.

L’écosystème de l’IA sera résilient grâce au modèle d’innovation entièrement distribué que j’ai décrit, mais quelques facteurs externes pourraient entraver les progrès.

  • Trop concentré sur l'apprentissage en profondeur. Un chercheur de l’Allen Institute for AI a prononcé un discours lors de la conférence O'Reilly sur l’intelligence artificielle l’année dernière. mieux adapté pour aider à atteindre l'IA générale.
  • Pas assez de bonnes données volumineuses. Malgré les progrès réalisés par de nombreuses entreprises dans l’organisation de leurs données, la plupart ont encore beaucoup de chemin à faire. Chez Automated Insights, nous avons constaté que le principal obstacle à la réussite des projets était le manque de données de qualité. La plupart des entreprises pensent qu'elles disposent de meilleures données qu'elles.
  • Humains! Le plus gros obstacle à l’adoption des technologies d’automatisation et d’intelligence artificielle de la prochaine génération sera sans doute nous-mêmes. En tant que société, nous n'adopterons pas pleinement les technologies susceptibles de sauver des millions de vies, comme les voitures autonomes. La technologie pour les voitures autonomes de niveau 5 est à portée de main, mais les pressions sociales et politiques allongeront considérablement le temps nécessaire à sa mise en œuvre.
  • Survivre au creux de la désillusion. Il serait intéressant de demander aux gens de Gartner, mais je serais curieux de savoir s’ils ont vu au cours des 20 dernières années une technologie aussi active que l’intelligence artificielle. Ils utilisent la même courbe de battage médiatique pour toutes les technologies émergentes, mais en réalité, chacune d’elles a une pente différente. Compte tenu de tout le battage médiatique autour de l'IA, cela pourrait signifier que le creux de la désillusion pourrait également être plus profond et potentiellement plus difficile à sortir. Les gens vont-ils s’en prendre à l’IA lorsque les premiers résultats ne seront pas aussi étonnants que nous l’espérions?
  • Des plates-formes d'IA émergent qui rendent le développement plus centralisé. Tensorflow a beaucoup gagné en traction dans la communauté ML. Pourrait-il devenir une plate-forme plus lourde qui deviendra le cadre par défaut que chaque ingénieur ML doit utiliser? Ensuite, nous risquons de suivre un modèle d’innovation plus centralisé.

En fin de compte, je crois que la loi d’Amara sera valable pour AI:

Nous avons tendance à surestimer l'effet d'une technologie à court terme et à sous-estimer cet effet à long terme.

De nombreuses tâches manuelles que je pensais être intouchables il y a à peine un an ou deux, je vois un moyen de les automatiser davantage. Il sera intéressant de voir s’il ya un point critique où le taux d’innovation va encore plus vite à mesure que nous réalisons de nouvelles avancées.

Si vous aimez ce message, indiquez-le ci-dessous pour que les autres le voient également. Je vous remercie!