L’intelligence artificielle (IA) séduit un nombre croissant d’entreprises par le gain de temps, de précision et de productivité qu’elle promet. Dans un contexte où la réglementation est inexistante, la puissance de ces outils génère également des inquiétudes.
Selon une récente enquête de Deloitte, 68 % des entreprises ont investi dans l’IA en 2021, contre 53 % en 2020. Près de la moitié des entreprises ont déclaré que l’IA était un élément clé de leur stratégie numérique globale. De nombreux employeurs voient l’IA comme un moyen d’améliorer l’efficacité et la productivité. Ces outils permettent l’automatisation de tâches répétitives et fastidieuses, une analyse de données plus rapide, de même que l’amélioration de l’expérience client et l’optimisation des processus.
Les outils comme ChatGPT sont donc déjà mis à contribution dans des domaines d’activité variés, comme la finance, la gestion des relations clients et la santé, le plus souvent dans des rôles d’assistants. Ainsi, un médecin peut désormais faire appel à l’IA pour écrire des lettres médicales aux sociétés d’assurance afin d’obtenir l’approbation de traitements. À San Francisco, un homme s’en est même servi pour écrire et illustrer un livre pour enfants, en quelques jours.
Encadrement demandé
Si l’IA est prometteuse à de nombreux égards, elle n’est pas sans conséquences. Des chercheurs de la banque d’investissement Goldman Sachs ont estimé qu’elle pourrait affecter 300 millions d’emplois à temps plein. La note d’analyse prédit que les professions administratives et juridiques seront les plus affectées, de même que celles liées à l’entretien et au nettoyage, les services de réparation, de production, de transport et de déplacement de matériel.
Les employeurs devront ainsi offrir aux personnes dont les emplois sont susceptibles d’être automatisés des programmes de formation et de développement des compétences. Parallèlement, de nouveaux emplois et métiers verront le jour, comme celui de psydesigner, un genre d’ergonome dont les compétences combinent celles d’un psychologue et d’un designer d’interface.
Plus d’un millier d’experts, dont le chercheur québécois Yoshua Bengio, ont demandé un moratoire de six mois aux laboratoires d’IA, certains que les robots conversationnels peuvent présenter de « graves risques pour la société et l’humanité ». Au début du mois d’avril, le député libéral Frédéric Beauchemin a lu une question rédigée par ChatGPT à l’Assemblée nationale, portant sur le développement de l’IA et ses conséquences.
« Il y a des limites connues à propos de l’intelligence artificielle comme ChatGPT, des biais comme le racisme, le sexisme, l’utilisation de ces logiciels pour la désinformation, la confidentialité des données, l’impact sur les études et le marché du travail, la responsabilité légale et les droits d’auteur », a-t-il déclaré. Le ministre québécois de l’Économie, de l’Innovation et de l’Énergie, Pierre Fitzgibbon, a récemment indiqué sa volonté d’encadrer le développement de l’IA afin d’éviter les dérapages.