tag:blogger.com,1999:blog-4603329861106773844.post7143006470693338770..comments2024-03-27T11:28:27.956+01:00Comments on C'est pas mon idée !: Rassurons-nous, l'IA ne détruira pas l'emploi !Unknownnoreply@blogger.comBlogger2125tag:blogger.com,1999:blog-4603329861106773844.post-59524014051657552392018-04-16T10:14:59.824+02:002018-04-16T10:14:59.824+02:00Patrick, mon point est justement de prendre garde ...Patrick, mon point est justement de prendre garde à ce type de raisonnement. Ce n'est pas parce que les transformations actuelles sont marginales qu'il faut négliger le risque futur d'une vraie rupture.Patricehttps://www.blogger.com/profile/14308074608455108769noreply@blogger.comtag:blogger.com,1999:blog-4603329861106773844.post-47947492742723651422018-04-16T09:45:03.515+02:002018-04-16T09:45:03.515+02:00A force d'entendre parler de l'IA à toutes...A force d'entendre parler de l'IA à toutes les sauces dans tous les médias (qui ne connaissent souvent pas grand chose à l'informatique), et des révolutions qu'elle va entrainer tout azimuths, il serait bon de se pencher sur ce que désigne ce terme IA d'un point de vue technique.<br /><br />Tout d'abord, ce n'est pas la première fois que l'IA excite les esprits. Au début des années 90, l'IA allait alors tout révolutionner. Les machines allaient devenir intelligentes, parler, comprendre des textes, savoir les résumer, etc... A la base de cette croyance, il y avait des nouveaux languages de programmation comme le prolog (et beaucoup d'autres), qui avec une approche algorithmique récurcive plutôt que séquentielle étaient capable de faire de nouvelles choses jusqu'ici difficiles. C'est cette vague, associée à l'augmentation des puissances mémoire/CPU qui par exemple, a permis aux logiciels d'echec de battre n'importe quel humain, ou au pire de faire match nul. Ces techniques récursives ont été utilisées dans quelques domaines finalement assez peu nombreux.<br />Les machines sont-elles devenues intelligentes pour autant ? Non bien sûr. Et les rêves d'IA sont retombés d'eux mêmes.<br /><br />Depuis quelques années, c'est le grand retour de l'IA, du machine learning, du deep learning et j'en passe. Des termes dont la plupart des commentateurs sont incapables de décrire la réalité qu'il recouvrent. Ces nouvelles techniques font toutes la même chose in fine. Elles font de la "recherche de similitudes". Pour rechercher des similitudes, il faut bien sûr disposer d'un reservoir de données conséquent, comme base de référence. Celui-ci est amenée par les nouvelles technologies de stockage dite "Big Data".<br />Les techniques "d'IA" d'aujourd'hui se basent sur l'analyse de ces données passés, pour rechercher des similitudes, rien de plus. Elles seront à l'aise pour déterminer si les données d'un client par exemple (ses transactions, ses recherches web, etc), se rapprochent plutôt de tel autre client ou tel autre groupe de client, afin de proposer un produit ou une solution adaptée. Ou si un mail parle plutôt de telle ou telle question, etc.<br /><br />Point "d'intelligence articielle" là dedans. Les problèmes résolus par les machines seront plus nombreux, parfaitement identifiés et compris, sans que cela ne change fondamentelent les choses. On ne dira pas plus demain que l'ordinateur est intelligent que l'on ne croit aujourd'hui qu'un logiciel d'echec est intelligent (et pourtant, on ne sait pas comment il fait).<br /><br />Bref, tout cela pour dire que l'IA ne va pas supprimer des tas d'emploi du jour au lendemain, loin de là. Il y a bien plus à craindre des logiciels qui ne contiennent aucune IA. Comme par exemple, les caisses sans caissiers. Et bien d'autres comme cela... Patrick Villeneuvehttps://www.blogger.com/profile/09893862915851379846noreply@blogger.com