Un sondage mené par Deloitte en 2018 auprès de 1 400 dirigeants américains connaissant l'intelligence artificielle (IA) a révélé que 32% des personnes interrogées classaient les problèmes éthiques parmi les trois principaux risques d'influenza aviaire. C'est un nombre étonnamment élevé compte tenu du fait qu'il n'y a pas eu de tels problèmes il y a quelques années. Des questions concernant les préjugés et l'égalité n'avaient pas encore été soulevées.
Aujourd'hui, cette situation évolue rapidement et les entreprises progressistes commencent à réfléchir sérieusement à l'intersection de l'éthique et de l'IA. Une grande partie de ce travail commence à porter ses fruits: le poste de directeur de l'éthique, qui est également en hausse.
Contrairement à de nombreux rôles de CXO, le responsable de l'éthique, également connu sous de nombreux autres titres, notamment responsable des comptes en fiducie et responsable de l'éthique et de la conformité, n'a pas de description cohérente de travail . La plupart du temps, en particulier dans le secteur financier, le rôle découle de la nécessité de veiller au respect de la réglementation fédérale et d'autres règles conçues pour prévenir les méfaits monétaires, tels que le blanchiment d'argent et les délits d'initiés.
Mais quelques entreprises tournées vers l'avenir se tournent vers le poste, quel que soit leur titre, pour les aider à orienter leurs valeurs plus largement et superviser tout, des discussions sur le commerce équitable à, plus récemment, en veillant à ce que les algorithmes d'intelligence artificielle soient non biaisés.
Une nouvelle discipline de gestion
Cela dit, dans une grande partie du monde de la technologie, le concept de responsable de l'éthique reste difficile à vendre, en grande partie à cause des pressions exercées pour rester compétitif. «Être le premier en éthique compte rarement autant que le premier en revenus», déclare Timothy Casey, professeur en résidence à la California Western School of Law et membre du comité d'éthique de la San Diego Bar Association.
L’autre grand problème est simplement une question d’histoire. Casey note que, même si certaines professions ont des valeurs éthiques depuis le début, la programmation informatique ne le fait pas. «En médecine et en droit, vous avez une organisation qui peut révoquer votre licence si vous enfreignez les règles, de sorte que l'impulsion pour se comporter de manière éthique est très forte», dit-il. "Les développeurs d'intelligence artificielle n'ont rien de tel."
La bonne nouvelle est que cela n'a pas empêché une poignée de pionniers de se frayer un chemin dans ce territoire compliqué, en s'efforçant de créer leur propre code de conduite et règles de comportement éthique, même en l'absence de conseils extérieurs.
Salesforce, par exemple, est l’une des entreprises les plus visibles qui recrutent un responsable de l’éthique. Paula Goldman, qui a rejoint la société en janvier 2019 et porte le titre de responsable des utilisations éthiques et humaines, a un mandat général: «Développer un cadre stratégique pour l'utilisation éthique et humaine de la technologie». Cela pourrait tout éviter. fausses nouvelles ”visant à protéger l'environnement, mais son travail consistera probablement à veiller à ce que l'utilisation de l'IA par Salesforce ne soit pas dévastée à des fins néfastes.
Google est un autre pionnier dans ce domaine et, bien que la société ne dispose pas actuellement de responsable de l'éthique, son conseil d'administration est entièrement consacré à l'éthique et à l'IA. Les principes du conseil sont publiés en ligne et codifiés dans un ensemble de convictions selon lesquelles l'IA devrait profiter à la société, devrait éviter les préjugés et devrait incorporer des principes de protection de la vie privée, entre autres. Depuis que les principes ont été publiés en juin dernier, Google a annoncé la création d’une structure d’examen formelle permettant d’évaluer les projets et les produits au regard de ces règles avant leur commercialisation.
Obtenir votre propre maison en ordre
Mais pour une entreprise comme Google, qui a une culture imprégnée de technologie, intégrer des considérations éthiques aux technologies émergentes telles que l'IA est une chose. Que se passe-t-il dans une entreprise en pleine transformation numérique? Ces entreprises trouvent que leurs responsables de l’éthique se voient confier de nouveaux types de défis, et la transition n’est pas toujours facile.
Michael Levin, à l'instar de nombreux responsables de l'éthique, a débuté sa carrière en droit avant de s'installer en interne. («J'en avais marre de nettoyer les dégâts», dit-il.) Après avoir travaillé dans une start-up centrée sur l'éthique et BAE Systems, il est devenu directeur de l'éthique chez Boeing, puis directeur de la déontologie à la Federal Home Loan Mortgage Corporation, aussi connue sous le nom de Freddie. Mac, où il travaille depuis 2014.
Pour Levin, la vie d'un responsable de l'éthique s'articule toujours autour de fonctions de base essentielles telles que l'orientation et la sensibilisation à l'éthique à l'ensemble de l'entreprise. "Cela inclut une formation pour façonner la culture d'entreprise et répondre aux allégations d'inconduite", dit-il. Dans ce cadre, le groupe de Levin gère des lignes d'assistance téléphonique et sur le Web où les employés peuvent poser des questions anonymement ou signaler des problèmes qu'ils rencontrent.
Tandis que Levin explique que l'utilisation par Freddie Mac de l'apprentissage automatique, de l'IA et de l'analyse prédictive évolue, il ajoute que la société se concentre sur l'éthique de la gestion et de la protection des données. Freddie Mac achète, met en commun et revend des hypothèques sous forme de titres adossés à des créances hypothécaires en masse, à hauteur de millions de prêts. «Ces données doivent être protégées correctement», déclare Levin. «Plus les marchés changent, plus ils deviennent concurrentiels et plus les entreprises chercheront des moyens d'utiliser les données pour obtenir un avantage concurrentiel. Voilà pourquoi des politiques claires sur l' utilisation des données et de protection sont essentiels et pourquoi le bureau d'éthique devrait participer au début. »
Un boudine sur l' éthique à la cible
Robert Foehl est maintenant cadre en résidence pour le droit des affaires et l'éthique au Ohio University College of Business. Dans l'industrie, il est surtout connu pour avoir jeté les bases éthiques de Target en tant que premier directeur de l'éthique d'entreprise.
Selon Foehl, dans une entreprise comme Target, des problèmes éthiques se posent chaque jour. «Cela inclut des questions sur l'origine des produits, leur fabrication, l'environnement, la justice et l'égalité dans le traitement des employés et des clients, ainsi que les obligations envers la communauté», a-t-il déclaré. «Dans le secteur de la vente au détail, les problèmes les plus importants ont tendance à concerner la mondialisation et la manière dont nous vendons aux consommateurs. Les gens sont-ils manipulés? Sommes-nous discriminatoires?
Pour Foehl, toutes ces questions ne sont que des éléments de divers cadres éthiques qu’il a construits au fil des ans; des cadres philosophiques complexes qui traitent des mesures du bonheur et de la souffrance, du potentiel de préjudice individuel, voire de l'impact d'une décision sur la «vertu» de l'entreprise. Selon lui, intégrer une technologie comme l'IA dans le mélange n'a que très peu d'impact sur cela.
"Le fait que vous ayez une technologie émergente n'a pas d'importance", dit-il, "puisque vous pensez pouvoir appliquer n'importe quelle situation." Qu'il s'agisse de l'IA, du Big Data ou de toute autre nouvelle technologie, dit Foehl, "nous mettons encore cela dans un cadre éthique. Ce n’est pas parce qu’il s’agit d’une nouvelle technologie qu’il s’agit d’un nouveau concept éthique. ”
En d'autres termes, un projet Big Data peut soulever des questions sur la confidentialité des clients. Le chef de la déontologie a pour rôle de déterminer ce qui se passe chaque fois qu'une nouvelle initiative ou une nouvelle technologie fait son apparition. «Lorsqu'une entreprise pense à une technologie émergente telle que l'intelligence artificielle», déclare Foehl, «l'entreprise ne doit pas seulement se demander: comment pouvons-nous l'utiliser? mais aussi «Devrions-nous l'utiliser?».
Il est important de comprendre qu'un responsable d'éthique typique ne scrute pas personnellement le code et ne passe pas au crible des modèles d'apprentissage automatique pour atténuer le risque de «biais machine». Ce rôle est plus consultatif et plus stratégique que tactique. Chez Target, le travail de Foehl consistait à rencontrer les membres de la direction afin de les informer de la pertinence des décisions et de comprendre les risques éthiques qui les entouraient, ainsi que de former les gestionnaires à la même chose.
Vous pouvez en voir quelques-unes à l'œuvre dans le « Plan directeur pour l'avenir de l'IA » de la Brookings Institution , qui expose cinq dilemmes éthiques autour de l'IA et un processus en six étapes pour y remédier, allant de l'élaboration d'un code de éthique à la construction d'un système de remédiation lorsque les choses vont mal.
Mais, dit Foehl, le plus gros défi est davantage tourné vers l'avenir: «Identifier et comprendre les nouveaux problèmes éthiques au fur et à mesure qu'ils se présentent. Par exemple, un androïde doté d'une intelligence de niveau humain doit-il des droits de l'homme? C'est quelque chose que nous n'avons pas encore traversé, mais nous le ferons éventuellement. »
Le travail de l'avenir
Beaucoup de ces discussions sur l'éthique et l'IA semblent théoriques aujourd'hui, mais cela change rapidement. La société de recherche Cognizant a inclus le «chef de la confiance» dans son21 Jobs of the Future , aux côtés de concerts tels que l’analyste d’apprentissage de la machine quantique et le directeur de portefeuille génomique. Et lors d'une récente conférence sur l'éducation, un consultant a suggéré que les diplômés en philosophie seraient très demandés d'ici 2030 et utilisés pour «examiner les résultats liés à l'IA d'un point de vue humain».
En d'autres termes, à mesure que l'IA devient de plus en plus intelligente, nous vont devoir travailler plus fort pour suivre. Doug Rose , auteur du livre à paraître «Dilemme des données: comment l’éthique des données définit votre entreprise», en offre un exemple concret. «À l'heure actuelle, si un accident est inévitable, les voitures autonomes de Google sont conçues pour entrer en collision avec le plus petit des deux objets», explique-t-il. "C'était une solution technique à une question profondément morale."
Ce ne sera pas - ou ne devrait pas être - le modèle à l'avenir car l'adoption d'IA grandit rapidement dans tous les secteurs. De plus en plus, les entreprises ont besoin d’un responsable de l’éthique, ajoute Rose, «pour s’immiscer dans ces décisions difficiles. Au fur et à mesure que ces questions technologiques se compliquent, ces décisions éthiques peuvent ne pas concerner que ce qui est juste ou faux. En fait, ils pourraient se révéler être une question de vie ou de mort. "
CREDIT: Images du héros
A propos de l'Auteur
Forbes Insights est la pratique de recherche stratégique et de leadership éclairé de Forbes Media. En exploitant les bases de données propriétaires de cadres supérieurs de la communauté Forbes, Forbes Insights mène des recherches sur un large éventail de sujets afin de positionner les marques en tant que leaders d'opinion et de susciter l'engagement des parties prenantes.