Saturday, April 27, 2019

Éthique au C-Suite: Montée en puissance du Président Exécutif Ethique





Un sondage mené par Deloitte en 2018 auprès de 1 400 dirigeants américains connaissant l'intelligence artificielle (IA) a révélé que 32% des personnes interrogées classaient les problèmes éthiques parmi les trois principaux risques d'influenza aviaire. C'est un nombre étonnamment élevé compte tenu du fait qu'il n'y a pas eu de tels problèmes il y a quelques années. Des questions concernant les préjugés et l'égalité n'avaient pas encore été soulevées. 

Aujourd'hui, cette situation évolue rapidement et les entreprises progressistes commencent à réfléchir sérieusement à l'intersection de l'éthique et de l'IA. Une grande partie de ce travail commence à porter ses fruits: le poste de directeur de l'éthique, qui est également en hausse.

Contrairement à de nombreux rôles de CXO, le responsable de l'éthique, également connu sous de nombreux autres titres, notamment responsable des comptes en fiducie et responsable de l'éthique et de la conformité, n'a pas de description cohérente de travail . La plupart du temps, en particulier dans le secteur financier, le rôle découle de la nécessité de veiller au respect de la réglementation fédérale et d'autres règles conçues pour prévenir les méfaits monétaires, tels que le blanchiment d'argent et les délits d'initiés. 

Mais quelques entreprises tournées vers l'avenir se tournent vers le poste, quel que soit leur titre, pour les aider à orienter leurs valeurs plus largement et superviser tout, des discussions sur le commerce équitable à, plus récemment, en veillant à ce que les algorithmes d'intelligence artificielle soient non biaisés. 

Une nouvelle discipline de gestion
Cela dit, dans une grande partie du monde de la technologie, le concept de responsable de l'éthique reste difficile à vendre, en grande partie à cause des pressions exercées pour rester compétitif. «Être le premier en éthique compte rarement autant que le premier en revenus», déclare Timothy Casey, professeur en résidence à la California Western School of Law et membre du comité d'éthique de la San Diego Bar Association. 

L’autre grand problème est simplement une question d’histoire. Casey note que, même si certaines professions ont des valeurs éthiques depuis le début, la programmation informatique ne le fait pas. «En médecine et en droit, vous avez une organisation qui peut révoquer votre licence si vous enfreignez les règles, de sorte que l'impulsion pour se comporter de manière éthique est très forte», dit-il. "Les développeurs d'intelligence artificielle n'ont rien de tel."

La bonne nouvelle est que cela n'a pas empêché une poignée de pionniers de se frayer un chemin dans ce territoire compliqué, en s'efforçant de créer leur propre code de conduite et règles de comportement éthique, même en l'absence de conseils extérieurs. 

Salesforce, par exemple, est l’une des entreprises les plus visibles qui recrutent un responsable de l’éthique. Paula Goldman, qui a rejoint la société en janvier 2019 et porte le titre de responsable des utilisations éthiques et humaines, a un mandat général: «Développer un cadre stratégique pour l'utilisation éthique et humaine de la technologie». Cela pourrait tout éviter. fausses nouvelles ”visant à protéger l'environnement, mais son travail consistera probablement à veiller à ce que l'utilisation de l'IA par Salesforce ne soit pas dévastée à des fins néfastes.

Google est un autre pionnier dans ce domaine et, bien que la société ne dispose pas actuellement de responsable de l'éthique, son conseil d'administration est entièrement consacré à l'éthique et à l'IA. Les principes du conseil sont publiés en ligne et codifiés dans un ensemble de convictions selon lesquelles l'IA devrait profiter à la société, devrait éviter les préjugés et devrait incorporer des principes de protection de la vie privée, entre autres. Depuis que les principes ont été publiés en juin dernier, Google a annoncé la création d’une structure d’examen formelle permettant d’évaluer les projets et les produits au regard de ces règles avant leur commercialisation. 

Obtenir votre propre maison en ordre
Mais pour une entreprise comme Google, qui a une culture imprégnée de technologie, intégrer des considérations éthiques aux technologies émergentes telles que l'IA est une chose. Que se passe-t-il dans une entreprise en pleine transformation numérique? Ces entreprises trouvent que leurs responsables de l’éthique se voient confier de nouveaux types de défis, et la transition n’est pas toujours facile. 

Michael Levin, à l'instar de nombreux responsables de l'éthique, a débuté sa carrière en droit avant de s'installer en interne. («J'en avais marre de nettoyer les dégâts», dit-il.) Après avoir travaillé dans une start-up centrée sur l'éthique et BAE Systems, il est devenu directeur de l'éthique chez Boeing, puis directeur de la déontologie à la Federal Home Loan Mortgage Corporation, aussi connue sous le nom de Freddie. Mac, où il travaille depuis 2014.

Pour Levin, la vie d'un responsable de l'éthique s'articule toujours autour de fonctions de base essentielles telles que l'orientation et la sensibilisation à l'éthique à l'ensemble de l'entreprise. "Cela inclut une formation pour façonner la culture d'entreprise et répondre aux allégations d'inconduite", dit-il. Dans ce cadre, le groupe de Levin gère des lignes d'assistance téléphonique et sur le Web où les employés peuvent poser des questions anonymement ou signaler des problèmes qu'ils rencontrent.

Tandis que Levin explique que l'utilisation par Freddie Mac de l'apprentissage automatique, de l'IA et de l'analyse prédictive évolue, il ajoute que la société se concentre sur l'éthique de la gestion et de la protection des données. Freddie Mac achète, met en commun et revend des hypothèques sous forme de titres adossés à des créances hypothécaires en masse, à hauteur de millions de prêts. «Ces données doivent être protégées correctement», déclare Levin. «Plus les marchés changent, plus ils deviennent concurrentiels et plus les entreprises chercheront des moyens d'utiliser les données pour obtenir un avantage concurrentiel. Voilà pourquoi des politiques claires sur l' utilisation des données et de protection sont essentiels et pourquoi le bureau d'éthique devrait participer au début. » 

Un boudine sur l' éthique à la cible
Robert Foehl est maintenant cadre en résidence pour le droit des affaires et l'éthique au Ohio University College of Business. Dans l'industrie, il est surtout connu pour avoir jeté les bases éthiques de Target en tant que premier directeur de l'éthique d'entreprise. 
Selon Foehl, dans une entreprise comme Target, des problèmes éthiques se posent chaque jour. «Cela inclut des questions sur l'origine des produits, leur fabrication, l'environnement, la justice et l'égalité dans le traitement des employés et des clients, ainsi que les obligations envers la communauté», a-t-il déclaré. «Dans le secteur de la vente au détail, les problèmes les plus importants ont tendance à concerner la mondialisation et la manière dont nous vendons aux consommateurs. Les gens sont-ils manipulés? Sommes-nous discriminatoires?

Pour Foehl, toutes ces questions ne sont que des éléments de divers cadres éthiques qu’il a construits au fil des ans; des cadres philosophiques complexes qui traitent des mesures du bonheur et de la souffrance, du potentiel de préjudice individuel, voire de l'impact d'une décision sur la «vertu» de l'entreprise. Selon lui, intégrer une technologie comme l'IA dans le mélange n'a que très peu d'impact sur cela. 

"Le fait que vous ayez une technologie émergente n'a pas d'importance", dit-il, "puisque vous pensez pouvoir appliquer n'importe quelle situation." Qu'il s'agisse de l'IA, du Big Data ou de toute autre nouvelle technologie, dit Foehl, "nous mettons encore cela dans un cadre éthique. Ce n’est pas parce qu’il s’agit d’une nouvelle technologie qu’il s’agit d’un nouveau concept éthique. ” 

En d'autres termes, un projet Big Data peut soulever des questions sur la confidentialité des clients. Le chef de la déontologie a pour rôle de déterminer ce qui se passe chaque fois qu'une nouvelle initiative ou une nouvelle technologie fait son apparition. «Lorsqu'une entreprise pense à une technologie émergente telle que l'intelligence artificielle», déclare Foehl, «l'entreprise ne doit pas seulement se demander: comment pouvons-nous l'utiliser? mais aussi «Devrions-nous l'utiliser?». 

Il est important de comprendre qu'un responsable d'éthique typique ne scrute pas personnellement le code et ne passe pas au crible des modèles d'apprentissage automatique pour atténuer le risque de «biais machine». Ce rôle est plus consultatif et plus stratégique que tactique. Chez Target, le travail de Foehl consistait à rencontrer les membres de la direction afin de les informer de la pertinence des décisions et de comprendre les risques éthiques qui les entouraient, ainsi que de former les gestionnaires à la même chose. 

Vous pouvez en voir quelques-unes à l'œuvre dans le « Plan directeur pour l'avenir de l'IA » de la Brookings Institution , qui expose cinq dilemmes éthiques autour de l'IA et un processus en six étapes pour y remédier, allant de l'élaboration d'un code de éthique à la construction d'un système de remédiation lorsque les choses vont mal. 

Mais, dit Foehl, le plus gros défi est davantage tourné vers l'avenir: «Identifier et comprendre les nouveaux problèmes éthiques au fur et à mesure qu'ils se présentent. Par exemple, un androïde doté d'une intelligence de niveau humain doit-il des droits de l'homme? C'est quelque chose que nous n'avons pas encore traversé, mais nous le ferons éventuellement. » 

Le travail de l'avenir
Beaucoup de ces discussions sur l'éthique et l'IA semblent théoriques aujourd'hui, mais cela change rapidement. La société de recherche Cognizant a inclus le «chef de la confiance» dans son21 Jobs of the Future , aux côtés de concerts tels que l’analyste d’apprentissage de la machine quantique et le directeur de portefeuille génomique. Et lors d'une récente conférence sur l'éducation, un consultant a suggéré que les diplômés en philosophie seraient très demandés d'ici 2030 et utilisés pour «examiner les résultats liés à l'IA d'un point de vue humain».

En d'autres termes, à mesure que l'IA devient de plus en plus intelligente, nous vont devoir travailler plus fort pour suivre. Doug Rose , auteur du livre à paraître «Dilemme des données: comment l’éthique des données définit votre entreprise», en offre un exemple concret. «À l'heure actuelle, si un accident est inévitable, les voitures autonomes de Google sont conçues pour entrer en collision avec le plus petit des deux objets», explique-t-il. "C'était une solution technique à une question profondément morale." 
  


Ce ne sera pas - ou ne devrait pas être - le modèle à l'avenir car l'adoption d'IA grandit rapidement dans tous les secteurs. De plus en plus, les entreprises ont besoin d’un responsable de l’éthique, ajoute Rose, «pour s’immiscer dans ces décisions difficiles. Au fur et à mesure que ces questions technologiques se compliquent, ces décisions éthiques peuvent ne pas concerner que ce qui est juste ou faux. En fait, ils pourraient se révéler être une question de vie ou de mort. "

CREDIT: Images du héros


A propos de l'Auteur
Forbes Insights est la pratique de recherche stratégique et de leadership éclairé de Forbes Media. En exploitant les bases de données propriétaires de cadres supérieurs de la communauté Forbes, Forbes Insights mène des recherches sur un large éventail de sujets afin de positionner les marques en tant que leaders d'opinion et de susciter l'engagement des parties prenantes.

Votre entreprise est-elle assez Soft ...suffisamment dotée de compétences relationnelles interpersonnelles générales?







À l'ère de l'intelligence artificielle (IA), les compétences non techniques sont une devise incontournable. Selon plus de 11 000 dirigeants d'entreprise interrogés dans le rapport sur les tendances du capital humain dans le monde , publié par le magazine Deloitte en 2018 , les talents les plus recherchés des futurs employés ne seront pas des compétences purement techniques telles que la programmation, la cybersécurité ou l'expertise en matière de blockchain. Ce seront des compétences générales «essentiellement humaines» telles que la créativité, la communication et la résolution de problèmes complexes.


sans légende
Les progrès technologiques peuvent être à l'origine de cette augmentation de la demande. Le Forum économique mondial prévoit que d'ici 2022, 42% des tâches sur le lieu de travail seront effectuées par une forme quelconque d'automatisation artificielle ou robotisée. Cela permettra aux travailleurs humains de consacrer plus de temps à l'innovation, à la collaboration et à la planification stratégique, tâches cognitives nécessitant une intelligence émotionnelle (QE) et des compétences interpersonnelles. 

Tomas Chamorro-Premuzic, professeur de psychologie des affaires à l'University College London (UCL) et de l'Université de Columbia, et chercheur en chef sur les talents au sein du groupe Manpower, estime que le recrutement de travailleurs hautement qualifiés et dotés de compétences non techniques démontrables constituera un avantage concurrentiel.

«Les personnes qui sont plus intelligentes sur le plan émotionnel et plus douées en relations interpersonnelles ont plus de succès dans leur carrière et un meilleur rendement au travail», explique Chamorro-Premuzic. «Les organisations doivent les engager, 

sinon elles travailleront pour vos concurrents et vous perdrez du temps.» Même si les employés ne possèdent pas un QE(Quotient Emotionnel) élevé à l'embauche, des études montrent que, pour la plupart des adultes, les compétences générales peuvent être enseignées. le travail. Et ils peuvent être enseignés à presque tout le monde: La condition de base pour une formation en compétences générales réussie est moyenne - un score de 90 à 100 pour le test d'intelligence émotionnelle de Mayer-Salovey-Caruso, qui correspond à la plage dans laquelle la plupart des adultes se situent - ou plus (scores de 101–150). 

Pour la plupart des entreprises, l’investissement dans le développement de compétences générales et le développement de l’intelligence émotionnelle sont rentables. Selon un 2017Selon une étude de l’Université du Michigan , la formation en compétences non techniques augmente la productivité et la rétention des employés de 12%, et offre un retour sur investissement de 256%. 

Pour les entreprises de tous les secteurs, la question n'est pas de savoir si investir dans la formation non technique en vaut la peine; il s'agit des approches qui produiront les meilleurs résultats.

L'empathie du haut vers le bas

Le premier défi pour les entreprises qui souhaitent renforcer leur stratégie en matière de compétences non techniques consiste à s'assurer que les cadres intègrent une intelligence émotionnelle dans leur style de leadership. Cela tend à se résumer à un trait essentiel: l’empathie. 
C’est là l’essentiel des résultats d’une étude DDI (Development Dimensions International) portant sur 15 000 dirigeants d’entreprise. En analysant le comportement réel dans des environnements commerciaux simulés sur 10 ans, DDI a constaté que les dirigeants qui écoutaient les autres faisaient preuve d'empathie de 40% plus de performances que les autres en termes de performance globale, de coaching, de planification et d'organisation et de prise de décision. Aujourd'hui, seuls 4 dirigeants sur 10 possèdent une empathie efficace ou forte.
«Les personnes qui sont plus intelligentes sur le plan émotionnel et qui sont plus qualifiées sur le plan interpersonnel ont un meilleur succès professionnel et des niveaux de performance supérieurs. Les organisations doivent les embaucher, sinon elles travailleront pour vos concurrents et vous perdrez.


Dr. Tomas Chamorro-Premuzic
«L’empathie se met à la place des autres et les dirigeants qui le font ont clairement un avantage concurrentiel», déclare Marcel Schwantes, coach exécutif et fondateur du cabinet de conseil Leadership from the Core. «Cela commence par le haut. Vous voulez quelqu'un qui défend la capacité d'être plus empathique et des modèles qui ressemblent à ceux de votre entreprise. » 
Des études montrent que l'empathie est une qualité qui peut être entraînée. Les analyses neurologiques détectent que des vidéos décrivant la souffrance humaine suscitent la compassionchez des sujets testés. Avec des consultants en affaires axés sur la psychologie du comportement comme The Mind Gym et TalentSmart En proposant des séminaires et un encadrement sur la manière de cultiver l'empathie au travail, il convient de les prendre en considération, d'autant plus que l'empathie est une qualité si différente à l'ère de l'IA.

Coudre des compétences relationnelles interpersonnelles générales

Les compétences générales ne rapportent pas que pour les cadres; ils ajoutent de la valeur commerciale aux employés de niveau inférieur. Exemple: 2 700 travailleurs de l' industrie du vêtement dans cinq usines de confection à Bangalore, en Inde, ont suivi un cours intensif de dix mois en entreprise sur les compétences non techniques afin d'améliorer leurs performances. Une analyse post-formation a révélé une augmentation de la productivité qui a généré un retour sur investissement de 250% 

«Nous avons également constaté que leurs supérieurs hiérarchiques avaient commencé à leur confier des tâches plus difficiles», explique Namrata Kala, professeur assistant d'économie au MIT Sloan, qui a dirigé les travaux de recherche. "En fin de compte, ils sont plus précieux pour l'entreprise car ils effectuent des opérations de vêtement plus difficiles."

Et les employés en ont profité autant que les employeurs. Une enquête réalisée après le programme auprès de 1 000 travailleurs a révélé des gains plus élevés, une meilleure estime de soi et des aspirations plus grandes pour eux-mêmes et leurs enfants.

Atelier, cours, mentor ou coach?

De nombreuses études universitaires renforcent les conclusions de l'équipe de recherche de Kala: les programmes de formation marchent. Mais dans l’ensemble, les entreprises n’investissent pas encore dans la formation aux compétences générales. 
Bien que les dépenses mondiales consacrées à la formation atteignent 350 milliards de dollars paran, Chamorro-Premuzic estime que «10% au maximum» est consacré au développement des compétences non techniques, la grande majorité étant axée sur les compétences technologiques. 

Les entreprises peuvent demander une aide extérieure pour développer leurs compétences générales. Les fournisseurs en ressources humaines peuvent animer des ateliers sur la communication interpersonnelle, la collaboration en équipe et la résolution de problèmes critiques. Les cours en ligne de Coursera, edX et uDemy peuvent faire la même chose. 

Des approches plus pratiques de la formation aux compétences générales, telles que le mentorat et le coaching, gagnent également en popularité. Environ 70% de Fortune 500 les entreprises offrent actuellement des programmes de mentorat, tout comme 25% des petites entreprises. Bien que des études aient montré des avantages psychosociaux à la fois pour les mentors et les protégés, les critiques assaillent de nombreux programmes de mentorat en les qualifiant d'archaïques et, parfois, de préjugés sexistes et raciaux . 

Les initiatives de coaching gagnent en popularité, en partie parce qu’elles sont axées sur les processus et les compétences plutôt que sur les carrières - ce que de nombreux employés considèrent comme un état d’esprit rapidement dépassé sur un marché du travail en agents libres. Selon le Human Coaching Institute, le coaching augmente également les bénéfices des entreprises, signalant que les organisations ayant une forte culture du coaching génèrent des revenus supérieurs à ceux de leurs pairs du secteur, 51% contre 38%.

Bilan de santé des compétences non techniques

Comment les entreprises peuvent-elles démarrer avec le développement de compétences non techniques? Schwantes recommande de réaliser un bilan de santé interne et externe afin de déterminer la stratégie de compétences non techniques adaptée à votre vivier de talents. “Commencez avec votre taux de roulement. Si les gens abandonnent à gauche et à droite, c'est très coûteux », dit-il. «Regardez votre satisfaction client. Les employés mécontents font les clients mécontents. » 

Chamorro-Premuzic souligne également que les sondages auprès des employés sont un outil puissant pour détecter les signes indiquant que votre entreprise a besoin d'une intervention non technique. 

«Les retours à la hausse des employés sont une chose précieuse», explique-t-il. "Ces enquêtes demandent aux employés des choses telles que" Je fais confiance à mes dirigeants "ou" Je reçois souvent des commentaires utiles de mon patron. " 

La meilleure intervention, à son avis, consiste en premier lieu à embaucher des employés qui apportent des compétences non techniques à l’entreprise. Et c’est un domaine dans lequel l’IA pourrait bientôt aider à déterminer qui possède les forces cognitives et émotionnelles qui rapporteront des dividendes à la société. 

Parmi les nouveaux outils d'IA utilisés par les entreprises pour évaluer les compétences non techniques des candidats à un emploi figurent les algorithmes de tests de personnalité basés sur les neurosciences. Tesla, LinkedIn et Accenture, par exemple, demandent à toutes les recrues potentielles de jouer à une série de 12 jeux développés par Pymetrics, pouvant mesurer 90 mesures cognitives, sociales et émotionnelles. HireVue, une autre start-up technologique, utilise l’intelligence artificielle pour analyser l’ intonation et le langage corporel dans les interviews vidéo afin de mieux comprendre la personnalité du candidat.

Selon un sondage de Deloitte , l' utilisation d'outils de recrutement basés sur des algorithmes est en pleine expansion: 29% des dirigeants d'entreprise mondiaux ont déclaré qu'ils les utilisaient déjà ou les utilisent actuellement . Cependant, il convient de noter que 71% des cadres qui les ont essayés trouvent le poste actuel. La technologie est «faible».  

Chamorro-Premuzic convient que la technologie d'évaluation des compétences non techniques de l'IA n'est pas encore robuste. 
«Jusqu'à ce jour, rien n'indique que l'intelligence artificielle puisse mieux évaluer les compétences générales que les évaluations traditionnelles», explique Chamorro-Premuzic. «Mais un jour, il sera capable de le faire plus rapidement, plus efficacement et à moindre coût.» 
CREDITS: Thomas Barwick / Getty



A propos de l'Auteur

Forbes Insights est la pratique de recherche stratégique et de leadership éclairé de Forbes Media. En exploitant les bases de données exclusives des dirigeants de la communauté Forbes, Forbes Insights mène des recherches sur un large éventail de sujets afin de positionner les marques en tant que leaders d'opinion et de susciter l'engagement des parties prenantes.

Wednesday, April 17, 2019

COMMENT L'IA VA FORMER UNE NOUVELLE GENERATION DE 'SUPER MANAGER'

RENCONTRER LE 'SUPER MANAGER' 
           ALIMENTÉ PAR L'IA




À mesure que l’automatisation libère les dirigeants des tâches administratives, de nouvelles opportunités apparaissent

Brienne Ghafourifar, cofondatrice de la société de technologie d'intelligence artificielle Entefy, estime que les super managers associeront trois rôles distincts: Mentor Empathetique , Décideur Axé sur les Données et Innovateur Créatif , dans un même poste.


Lorsque les dirigeants évoquent l'évolution des rôles de direction dans la nouvelle ère de l'intelligence artificielle, le plus souvent, ce sont ceux qui parlent de temps. 

Considérez que les chefs d'entreprise consacrent actuellement 54% de leur journée de travail moyenne à des tâches administratives telles que la planification, les budgets et les rapports, selon un sondage Accenture publié dans le Harvard Business Review. Ils ne consacrent que 10% à la planification stratégique et encore moins 7% à des entretiens individuels avec leurs subordonnés directs - deux tâches essentielles au succès de la gestion.  

sans légende
Un nombre croissant d'applications d'intelligence artificielle promettent toutefois de réduire considérablement la charge de travail des dirigeants d'entreprise en prenant en charge bon nombre de ces tâches répétitives et de faible valeur. D'ici 2021, ce changement générera une valeur commerciale estimée à 2,9 milliards de dollars et permettra d'économiser 6,2 milliards d'heures de productivité des travailleurs, selon Gartner 


Le résultat: les managers auront plus de temps pour effectuer un travail plus précieux. Dans le même temps, ils devront agir plus rapidement, en s'appuyant sur des informations basées sur des données pour la prise de décision stratégique, et diriger plus efficacement à l'aide d'outils basés sur l'IA permettant de rationaliser la productivité.

Brienne Ghafourifar, cofondatrice de la société de technologie d'intelligence artificielle Entefy, a pour objectif d'aider les gestionnaires à trouver cet avantage en termes de productivité alors que l'intelligence artificielle gagne du terrain sur le lieu de travail. Entefy fait partie des dizaines de startups prenant en charge Google, Microsoft et d'autres avec des applications d'intelligence artificielle qui s'efforcent de donner aux actifs les plus précieux des entreprises, les personnes, un avantage concurrentiel. 

Ghafourifar passe beaucoup de temps à réfléchir à la manière dont l'intelligence artificielle peut responsabiliser les gestionnaires du futur. Elle pense qu'il faudra associer trois rôles distincts: empathique, mentor, décideur axé sur les données et innovateur créatif, pour créer un poste unique.

«Un manager moyen n'aura pas besoin d'occuper les trois rôles, explique-t-elle, mais un« super manager »devrait le faire et le fera.» Voici un aperçu plus détaillé de chacun de ces rôles.

Mentor empathique

Au fur et à mesure que l'intelligence artificielle automatise des tâches plus routinières, les gestionnaires et les employés s'appuieront de plus en plus sur des «compétences générales» telles que l'intelligence émotionnelle, la créativité et la résolution de problèmes critiques. En conséquence, les gestionnaires devront affiner leur expertise en matière d’évaluation des compétences, en identifiant les forces et les faiblesses des membres de l’équipe. 

Le logiciel de diagnostic de l'IA peut les aider à surveiller les performances et l'engagement des travailleurs, mais l'élément humain nécessaire pour déployer ces données avec art sera de faire preuve d'empathie.
"L'intelligence artificielle peut fournir des informations sur la productivité des travailleurs auxquelles les responsables n'avaient pas accès auparavant", déclare Ghafourifar. «Ils peuvent comprendre la performance des employés et leur moral. Mais en fin de compte, cela dépend de la capacité des gens à faire preuve d'empathie envers leurs employés. "

Parmi les domaines dans lesquels les super managers devront engager leurs équipes avec empathie, se trouve l’adoption des outils d’IA eux-mêmes. Une récente enquête d' Adobe auprès des travailleurs américains a révélé que plus de 70% des personnes interrogées ne se sentaient pas en mesure de tirer parti de l'IA dans le cadre de leur travail.  
Les bons managers devront comprendre cette anxiété et aider leurs équipes à adopter de nouveaux outils technologiques. «À tout le moins, ils devront faire le lien entre ce que peut faire une plateforme d’IA et la manière dont ces fonctions correspondent aux objectifs de l’équipe», note Ghafourifar. 

Le fait que les managers comprennent bien le fonctionnement de l’intelligence artificielle constituera également un facteur de différenciation essentiel dans l’efficacité des supers gestionnaires, a déclaré Sam Ransbotham, professeur associé au Carroll School of Business du Boston College. «Tout le monde n'a pas besoin de tout savoir sur l'IA, mais les responsables doivent comprendre ce qu'elle peut et ne peut pas faire», dit-il. "Ce n'est qu'en connaissant ces technologies que les gens peuvent faire une critique avisée de ce qui est possible et de ce qui n'est pas possible, de ce qui vaut la peine et de ce qui ne l'est pas."

Même s'ils ne peuvent pas former eux-mêmes des algorithmes, les responsables doivent comprendre quand, comment et pourquoi les utiliser - et communiquer ce savoir à leurs équipes. 

Décideur basé sur les données

Même aujourd'hui, la quantité de données à la disposition des managers est stupéfiante et devrait croître de manière exponentielle dans les années à venir. Cette explosion de données présentera à la fois des opportunités et des défis pour les chefs d'entreprise. Le super manager de demain naviguera dans les deux directions pour prendre les meilleures décisions possibles.
«L'intelligence artificielle va augmenter les capacités humaines. Nous allons remplacer les tâches redondantes, mais l'élément humain est toujours là. Nous pouvons maintenant consacrer plus de temps à des tâches qui nécessitent plus de créativité. "

Brienne Ghafourifar
Plus important parmi les opportunités? L'analyse prédictive donnera aux managers plus d'informations sur le paysage concurrentiel, l'évolution des données démographiques et des préférences des clients et un retour probable sur investissement en fonction des tendances futures.

«Plus de données nous aident à prendre de meilleures décisions. Si vous êtes un bon manager, vous serez généralement mieux placé pour prendre de meilleures décisions avec plus de données », déclare Ghafourifar.
Mais l'avalanche de données présente aussi des dangers. Les informations générées par l'intelligence artificielle ne seront aussi bonnes que les données introduites dans les algorithmes. Il faudra un super manager pour évaluer avec précision la valeur des données en fonction de leurs connaissances et de leur jugement. 

«Les données ne seront pas parfaites», déclare Ransbotham. «Cela va être intrinsèquement imparfait. Le rôle humain consiste à connaître les limites des entrées de l'IA, car vous ne disposerez jamais d'informations parfaites. »

Un autre risque pour les managers de tous les secteurs est la dépendance excessive potentielle à l'égard de l'IA, risque d'autant plus réel que les algorithmes assument la capacité de prendre des décisions eux-mêmes. Le Forum économique mondial rapporte que d'ici 2025, l'automatisation traitera environ 28% des heures consacrées à la prise de décision. C'est une pente glissante sur laquelle Ghafourifar pense que les super managers ne tomberont pas.  

«En tant que manager, je pourrais bien sûr regarder la sortie brute et prendre une décision que la machine recommande», dit-elle. "Mais c'est à l'humain de faire l'analyse."

Innovateur créatif

L'avenir est optimiste: en donnant aux managers et à leurs équipes plus de temps et des ressources plus intelligentes, les nouvelles technologies vont déclencher une vague d'innovation. Ghafourifar elle-même est optimiste quant à ce résultat.
«L'intelligence artificielle va augmenter les capacités humaines», dit-elle. «Nous allons remplacer les tâches redondantes, mais l'élément humain est toujours là. Nous pouvons maintenant consacrer plus de temps à des tâches qui nécessitent plus de créativité. "

Mais une vision moins optimiste est que, même avec les outils d'intelligence artificielle les plus avancés, tous les responsables ne seront pas les prochains Steve Jobs.

«La vérité est que de nombreuses entreprises ont actuellement des managers qui ne sont pas stratégiques», déclare Tomas Chamorro-Premuzic, professeur de psychologie des affaires et scientifique en chef des talents chez ManpowerGroup. «Ils peuvent être efficaces dans l'exécution de tâches quotidiennes, mais si vous leur demandez: où va l'entreprise? Comment vous préparez-vous pour l'avenir? ', Beaucoup ne sont tout simplement pas naïfs. "

Les super managers seront ceux qui peuvent exploiter l'intelligence artificielle pour distiller des idées complexes, identifier des schémas cachés et élaborer des stratégies pour obtenir un avantage concurrentiel. Mais la technologie ne libérera pas comme par magie tout leur potentiel. En fin de compte, les compétences, le courage et le talent détermineront les gestionnaires qui prospèrent dans cet écosystème en évolution.

«Les personnes qui ont investi dans l’apprentissage de l’IA et qui ont construit cette base seront mieux à même de l’utiliser», déclare Ransbotham. «C’est vrai pour toutes les technologies de l’histoire de l’humanité. Pourquoi celui-ci serait-il différent? Vous pouvez donner un marteau à deux personnes et les personnes qui savent quoi en faire peuvent construire quelque chose. Les gens qui ne peuvent pas simplement casser des choses. "
CRÉDITS: Nazar Abbas Photography / Getty



A propos de l'Auteur


Forbes Insights est la pratique de recherche stratégique et de leadership éclairé de Forbes Media. En exploitant les bases de données exclusives des dirigeants de la communauté Forbes, Forbes Insights mène des recherches sur un large éventail de sujets afin de positionner les marques en tant que leaders d'opinion et de susciter l'engagement des parties prenantes.

Event: Tap Into Infrared to detect invisible defects within materials


Tap Into Infrared

When evaluating this technology for your operation there are two methods to consider, specifically; should you develop an in-house program or outsource the work? Training and experience of the thermographer and the quality of the infrared (IR) camera used on the job are both a critical part of the equation. Figuring out which camera is the best value can be tricky, so proper research on the subject and some due-diligence are required for you to be able to “tap into infrared”.

In-House vs. Outsourced

This is simple: unplanned downtime = lost money.  For companies with critical operations, 24/7 manufacturing and a proactive mindset, an in-house program makes good business sense.  Many companies have successfully implemented in-house programs; for example, 2006 Uptime PdM Program of the Year Infrared winners Johns Manville in Kansas, and 2007 Infrared winners Aerospace Testing Alliance (ATA) at Arnold Air Force Base in Tennessee, to name a couple.  These are examples of world class in-house P/PM programs.  Many companies must outsource this type of work as it is not economically feasible to have an in-house program.  The biggest benefit to outsourcing is that there is no long term commitment and the costs are generally lower –but so are the returns on investment.  Not having an on-site IR camera system makes troubleshooting using IR impossible.

Training and Education (In-House)

Training is a critical step if you have an in-house program or are planning to start one. In the case of electrical infrared inspections, a person with an electrical background is the ideal person to train on infrared if they have the right personality.  Someone that is timid is not a good candidate.  While performing electrical inspections, there are a lot of considerations.  Safety is the first, but you also need a person who understands the equipment, i.e., switchgear, buss ducts, fuse clips, control transformers, etc., so that they can identify what they are looking at. 

Next, never make the thermographer responsible for the repairs when he or she finds problems, even if they are capable of accomplishing, them because it is not efficient.  Infrared thermography has not quite progressed into a science, so it is still somewhat of an art form. This leads to wild variances in the number of reportable findings.  Training and mentoring by an experienced thermographer is key.  There are other personality factors to consider.  Some people will over-report even if this creates more work for them.  Others will not report all the problems because they don’t want to repair them, or they think maybe it will be OK until the next scan or the classic “I’m quitting soon, so I don’t really care” attitude.

Training and Experience (Outsourced)

Training and experience of the thermographer are the two factors that should drive the purchase of any service.  A technician from a professional infrared service company has most likely [but not certainly] had some sort of formal training and on the job training.   However, the more important component is to find someone with a considerable amount of experience.  No one wants an untrained thermographer with a low-resolution IR camera learning how to do electrical infrared surveys at their facility.  You must qualify the contractor by inquiring as to what type of training they have had, what references they have and what experience they have accumulated. 

Many companies that we have dealt with in the past (even ones that have eventually hired us), at first, judge the company solely by the cost of my service –which is not the right way to buy any service, and certainly not infrared services.  Recently a company brought me in for what seemed to be an “interview” and plant tour.  Both the maintenance manager and plant manager had prepared questions to find out what we could and could not do.  It was refreshing to see people take a genuine interest in evaluating my skills, my company’s capabilities and the cost of the services.  This is one of few companies in recent years that have taken the time to find out what they are really paying for. 

 IR_Figure 1

Evaluating samples of past IR projects by the thermographer is important and effective.  When someone prepares a sample project, they will naturally use some of their more impressive imagery.  If the thermographer shows you images that look like the ones on the left in either Figure 1 or Figure 2, it should let you know that you definitely do not want to hire them since you are probably looking at their “best” work.

IR_Figure 2 

Infrared Cameras (In-House and Outsourced)


To effectively contract IR services, one needs to evaluate not only the thermographer’s capabilities, but also the equipment specified.  The specification should be based on performance and not brand-specific.  In other words, the specification should not read: “the IR camera used shall be a Brand-X, Model-Y”.  Instead the spec should be about the technical characteristics of the camera, such as the minimum spatial resolution and the minimum thermal sensitivity. 

Other considerations when specifying IR cameras are:

  •  Proprietary infrared software compatibility and usability  
  •  Lens options (telephoto, wide-angle)
  •  Built-in visual camera
  •  Built-in voice recording & data-logging
  •  Built-in laser pointer
  •  Extra (and standard!) batteries
  •  Adaptability to infrared windows (to increase safety and lower PPE requirements)

Once you have narrowed down your selection of cameras to a couple, ask for demonstrations of the units and the software for each.  Bear in mind that the newest trend on the lower end cameras is for the manufacturers to sell through distributors instead of reps.  Distributors don’t have the margins to sell by demonstration, so they will resist.  Now, if you want a demo of a $35K camera, I promise a representative will make time for you.

Conclusions


When evaluating what infrared technology can do for your operation, there are many considerations.  In-house programs can be very successful, but are highly prone to failure if you select the wrong personnel and if the program is not given full support by management.  If you outsource your infrared services, set up an “interview” with the contractors and have lots of questions ready.  At the end of the interview, you should know if this contractor will not meet, meet or probably exceed your expectations.  When specifying an IR camera purchase, consider hiring a thermographer who knows the IR market to be your consultant.  Many cameras have features that are not necessary and overpriced.  Do your homework each step of the way and you will see positive results and a positive impact to your company’s bottom line. 

About the Author
Jeffrey L. Gadd is the owner of Vision Infrared Services (www.visioninfrared.com) in Cleveland, OH. He is a Level II Infrared Thermographer and has an AAS in Industrial Electricity along with 12 years experience as a electrician and maintenance technician. You can contact Jeff with questions at 440-554-3620 or e-mail to: jeff@visioninfrared.com

4 Industries That Feel The Urgency Of AI Ethics



An algorithm can’t choose where, when, or how it’s used, including whether it’s used for good or bad intentions. This puts the burden for the ethical use of artificial intelligence (AI) squarely on human shoulders.

But are companies taking up the mantle of responsibility? Keith Strier, Global Artificial Intelligence Leader at Ernst & Young, isn’t convinced. “The business world has been much more focused on the upside, not the downside, of these technologies,” Strier says. “They’re focused on, ‘Let’s get this built. Show me the money.’”

Meanwhile, universities and think tanks, such as the Partnership for Artificial Intelligence, the Future of Life Institute, OpenAI, and the AI Now Institute, are actively trying to establish ethical guardrails for AI and urging both governments and business leaders to adopt them.
But codifying ethical standards or enforceable regulations is incredibly complex. And the challenges in using AI ethically are not equal across industries. Notably, healthcare AI has emerged as a minefield of ethics quandaries, from potential misdiagnoses by flawed algorithms to gene editing—that’s why we’ve covered that issue earlier in Forbes AI.
Beyond healthcare, however, are many industries where AI technology is raising equally pressing ethical questions. Here is a look at four of the biggest sectors where ethics and AI are colliding quickly.  

Autonomous Transportation

One of the most complex aspects of developing autonomous vehicles is the programmed intelligence they will use to occasionally make life-and-death decisions on behalf of human passengers.

The research behind this concept isn’t new: the “Trolley Problem,” for instance, is a well-known philosophical experiment in which the conductor of an out-of-control streetcar must choose between staying on the track, which will kill five bystanders; or switching tracks and killing just one person.

Making a moral calculation between potential victims is hard enough for humans. For autonomous vehicles, it will eventually be a matter of coding. An algorithm must be designed to automatically make that choice. Self-driving cars will need to wrestle with many variations of the “trolley problem.”

According to Meredith Whittaker, co-founder and co-director of the AI Now Institute at NYU, this is only the tip of the ethical iceberg. Accountability and liability are open and pressing issues that society must address as autonomous vehicles take over roadways.
“Who ultimately bears responsibility if you’re looking at a black box that only the company, who has a vested interest in perpetuating the use of these technologies, is able to audit?” she asks. “These are urban planning questions. They’re regulatory questions. And they’re questions around the role of the public in decision making that impacts their lives and environments.”

Two 2018 fatalities during autonomous vehicle road tests, in Arizona and California, only elevate the urgency of these questions. In the case of a California pedestrian killed by an autonomous taxi, investigators found that the company’s technology had failed catastrophically in an easily preventable way.

Months after launching probes into the accidents, the National Highway Traffic Safety Administration signaled that existing regulations for autonomous vehicles may face changes—to weaken them.

The rationale behind that decision was to remove roadblocks to technology innovation, so that U.S.-based automakers don’t get left behind as competitors from other countries beat them to market with self-driving cars.

“Germany, Japan, and China are very much out front on this,” Strier explains, citing Germany’s recently unveiled national AI policy, which eased regulations on autonomous vehicle development. “From a global competitive perspective, U.S. regulators are keen to enable companies to have freedom in the sandbox to develop these technologies.”
Looser regulations sidestep the ethical challenges that carmakers will face inevitably, but for now it appears that both enterprise and government have set those questions aside. With more than $80 billion invested in developing self-driving vehicles in recent years, it appears that too much money is at stake to tap the brakes for ethical debate.
“The train has left the station,” Strier says. “Federal governments around the world are trying not to stand in the way.”

Financial Services & Insurance

Small business loans. Home mortgage rates. Insurance premiums. For financial institutions and insurers, AI software is increasingly automating these decisions, saving them money by speeding application and claims processing and detecting fraud. Automation in the financial services sector could save companies $512 billion by 2020, according to a 2018 Capgemini study.

But the risk of bias is rampant. If an applicant is denied a loan due to a low credit score or deemed a high risk and slapped with exorbitant insurance premiums, the algorithm making those assessments is, for a majority of the time, opaque.

“There are a lot of dangers here,” says Whittaker. “You’re looking at a scenario in which these companies, whose ultimate duty is to their shareholders, are going to be increasingly making assumptions about people’s private lives, about their habits, and what that may mean about their risk profile.”

For racial, gender, and ethnic minorities, biased AI can have potentially life-changing impact. A 2018 study conducted at UC Berkeley found that consumer-lending technology discriminates against minority applicants.

“There are all sorts of ways in which we’re seeing these automated systems effectively become the gatekeepers for determining who gets resources and who doesn’t,” Whittaker warns.

Ironically, tech companies are trying to fight AI bias by using other AI as watchdogs. For example, one tech company created an algorithm to “correct”biased datasets and produce unbiased results. And in 2016, a consortium of researchers designed AI to detect gender and racial discrimination in algorithms, a tool that the Consumer Finance Protection Bureau (CFPB) sought to adopt to test loan decisions for bias.

But major U.S. financial services and insurance companies have pushed backon the CFPB’s anti-bias efforts, saying they put them at a competitive disadvantage to fintech startups. In 2018, lawmakers successfully squashed a CFPB policy aimed at ending racial discrimination in auto lending.

Still, Strier argues, the issue of AI fairness in financial services is on governments’ radar globally, and regulations will emerge to fight bias over time. What role technology will play in enforcing those regulations remains unclear, however.

“Everyone is worried about bias,” says Strier. “It’s a pervasive problem—and a science problem. There are emerging technological methods coming into view, but there’s no clear-cut answer on how to avoid bias. You’ve got a disease for which there’s no obvious cure yet.”

Journalism And “Fake News”

The concept of fake news—deliberate misinformation disguised as journalism that is spread largely through social media—has become an international burden. In March 2017, news broke that a U.K. firm had gamed the data-sharing protocols of a major social media platform in order to influence voters during the U.S. presidential election. The uproar from the ensuing scandal still echoes, and the phrase “fake news” has spread, undercutting public trust in the media.

“This is really an ad-tech story,” Whittaker says. “Massive platforms like Facebook and Twitter work by directing people to content they might like that will keep them clicking on ads. Journalism has become just one input that is buffeted by whatever these algorithmic whims are that are ultimately calibrated to earn these companies a profit, not to where it is most salutary for an informed public.”

Can regulation or legislation stem the tide of this corrosive misinformation?
“We’re going to have years of emerging regulations in different parts of the world trying out different ways to deal with this,” she predicts. “It’s a tradeoff: We want the free flow of information, but we’ve basically created a super highway for bad stuff.”
And with “deepfake” video now emerging, more bad stuff is on the way. Thanks to tools like FakeApp, which is based on open source code from Google, anyone can digitally manipulate video to create a seemingly realistic-looking record of an event that never occurred.

“It’s like Photoshop on steroids,” says Whittaker. “I think about these technologies in the context of old-fashioned dirty political tricks we’ve seen. Not everyone has to believe a fake video for it to have a profound impact on our democratic processes.”
In the U.S., legislators have expressed concerns about deepfake video, but no legislation has emerged and, for now, Congress has let Facebook skate on promises to better police itself.

Elsewhere around the globe, countries from Germany and France to Russia and Indonesia have introduced new laws to crack down on the spread of misinformation on social media, but these laws have raised ethical concerns themselves—namely, that they may be misused to muzzle free speech. In Malaysia, for example, a journalist found guilty of spreading fake news faces up to six years in prison.

“This is a pervasive challenge of our time,” Strier says. “There’s a lot of discussion and methods being talked about, but no one has solved it. Right now, the computational propagandists have the upper hand.”

Military

In 2018, Google employees took a stand. Learning that their company was supplying AI tech to the U.S. Air Force for “Project Maven” which could be used for deadly drone strikes, more than 3,000 workers signed a letter of protest to CEO Sundar Pichai. Bowing to the pressure, the company pulled out of the military contract.
The ethics of tech companies partnering with the U.S. military are fraught. Do the personal moral codes of employees trump the security interests of a country engaged in an “AI arms race” with rogue nations, geopolitical foes, and terrorists?
For academics and think tanks like the Future of Life Institute, it’s a no-brainer. They have launched a worldwide campaign calling on countries to ban the development of autonomous weapons.

But that hasn’t deterred the U.S. Defense Department from boosting its AI spending, and a good chunk of that $2 billion investment is going toward undisclosed partnerships with tech companies.

For Open AI’s Whittaker, one of the biggest ethical dilemmas is transparency. The public has given tech companies mountains of personal data with the tacit belief that they will guard it, not weaponize it.

“These companies are protected by corporate secrecy,” she notes. “It is completely probable that there are similar projects at other companies, potentially Google, that no one knows anything about because they’re protected on one side by corporate secrecy and on the other side by military secrecy protocols.”

And that opacity should be ethically troubling to society at large, she argues.
“Who is deciding who constitutes a target? Who gets to decide what an enemy looks like?” Whittaker asks. “Should we have a say when our data that we entrusted to tech companies is used to train AI systems that are used in weapons?”

Complicating the ethical equation is the question of whether the U.S. should have the means to defend itself against possible AI-based attacks from adversaries or cyber terrorists.

Americans are evenly divided on this issue. In a 2018 survey by the Brookings Institute, 30% of respondents said the U.S. should develop AI technologies for warfare, 39% didn’t, and 31% were undecided.

Tech companies are increasingly finding themselves forced to take a stand by their own employees. Like Google’s disaffected workers, a global coalition of Microsoft employees have publicly rebuked CEO Satya Nadella for signing a $479 million contract with the U.S. Army to sell it Hololens technology to train U.S. soldiers for battle—and even to use in combat.

Nadella has publicly defended the contract as a “principled decision” to protect frontline troops. But he also assured his rattled staff that Microsoft would “continue to have a dialogue” about these issues.

As far as ethical issues surrounding the use of AI are concerned, that conversation, in boardrooms and offices around the world, is far from over.
Credit: Liyao Xie/GettyImages

About the Author

Forbes Insights is the strategic research and thought leadership practice of Forbes Media. By leveraging proprietary databases of senior-level executives in the Forbes community, Forbes Insights conducts research on a wide range of topics to position brands as thought leaders and drive stakeholder engagement.