Les logiciels informatiques à intelligence synthétique peuvent reconnaître les rencontres, traduire impliquant le mandarin et le swahili et vaincre les meilleurs joueurs humains du monde à des titres de jeu tels que Go, échecs et poker. Ce qu’il ne peut pas toujours faire, c’est être clair par lui-même. L’IA est un logiciel qui pourrait acquérir des connaissances à partir des détails ou de l’expérience pour produire des estimations. Un programmeur d’ordinateur personnel spécifie les informations à partir desquelles le logiciel doit apprendre et fournit des articles une paire de lignes directrices, connu sous le nom d’un algorithme, sur la précision avec laquelle l’application doit faire cela, mais ne dicte pas exactement ce qu’il doit comprendre. Et c’est ce qui fournit à l’IA la plus grande partie de sa puissance: elle peut découvrir des liens à partir des informations qui seront plus compliqués ou nuancés par rapport à ce qu’un homme découvrirait. Mais cette difficulté signifie que la cause pour laquelle le logiciel atteint un verdict distinct est souvent principalement opaque, allant même à ses propres créateurs. Pour les créateurs de logiciels souhaitant proposer des systèmes d’IA, cette lucidité insuffisante peut être préjudiciable aux entreprises. Il est difficile pour l’humanité de s’appuyer sur un processus qu’elle ne peut pas reconnaître – et sans confiance, les agences ne débourseront pas beaucoup d’argent pour le logiciel IA. Cela est également vrai dans les domaines de l’emploi, par exemple les soins de santé, les finances et l’application de la loi, où les conséquences d’un mauvais conseil ont tendance à être plus importantes que, disons, à l’époque, Netflix pensait que vous pourriez peut-être avoir du plaisir à regarder The Hangover Component III. Le contrôle peut également inciter les entreprises à demander une IA beaucoup plus explicable. À l’intérieur des États-Unis, les lois et réglementations en matière d’assurance doivent que les organisations aient la capacité d’expliquer clairement pourquoi elles ont refusé la protection de quelqu’un ou leur ont facturé un montant supérieur par rapport à ce qu’elles ont fait à leurs voisins. En Europe, le règlement normal Info Défense, qui est peut-être entré en vigueur en mai, accorde aux habitants de l’UE un « droit à un examen individuel » associé à une décision algorithmique les concernant. Si l’institution financière rejette le programme de prêt, elle ne peut pas simplement vous expliquer que l’ordinateur a expliqué qu’aucun travailleur d’une institution bancaire ne doit examiner la procédure utilisée par l’équipement ou effectuer une évaluation distincte. David Kenny, qui jusqu’à avant ces quatre semaines était une personne âgée d’Overseas Company Models Corp. v. p. pour les solutions intellectuelles, déclare que lorsque IBM a interrogé 5 000 entreprises sur l’utilisation de l’IA, 82% ont déclaré qu’elles devaient y parvenir, mais les deux tiers de ces sociétés ont déclaré que ces personnes n’étaient pas disposées à continuer, avec une cote d’explication trop faible, car le barrage routier le plus important à reconnaissance. 60% des dirigeants expriment désormais le problème que les activités internes de l’IA sont beaucoup trop énigmatiques, contre 29% en 2016. «Ils disent:« Si je fais une détermination vitale tout autour de la souscription des chances ou de la sécurité alimentaire de base, j’avais besoin de beaucoup plus explicabilité », explique Kenny, qui est maintenant le principal officier de police exécutif de Nielsen Holdings Plc. En réaction, les distributeurs de logiciels et les intégrateurs de solutions informatiques ont commencé à vanter une capacité remarquable à donner aux clients des idées sur la façon dont les cours d’IA sont envisagés. Lors du séminaire sur les systèmes de traitement de l’information neuronale à Montréal au début du mois de décembre, l’espace de vente d’IBM a annoncé que son logiciel informatique intellectuel artificiel dépendant du cloud offrait une «explicabilité». L’application d’IBM peut identifier un consommateur parmi les trois à cinq éléments que les critères de cet algorithme ont pesés le plus intensément pour prendre une décision. Il pourrait suivre la lignée des données Web, montrant aux acheteurs exactement d’où provenaient les éléments d’information et les faits utilisés via les critères de l’algorithme. Cela pourrait être essentiel pour trouver un parti pris, affirme Kenny. IBM propose même des ressources qui aideront les entreprises à éliminer les domaines de carrière de l’information qui pourraient être discriminatoires, y compris la race, et d’autres points d’information qui peuvent être étroitement liés à ces variables, y compris les codes postaux. Quantum Black, une firme de discussion qui aide les entreprises à concevoir des solutions pour évaluer les détails, a promu son travail vers le développement de l’IA explicable lors de la conférence, puis il y a eu de nombreuses démonstrations pédagogiques sur le sujet. Accenture Plc a commencé à commercialiser des «équipements d’équité», qui peuvent aider les entreprises à reconnaître et à corriger les biais de leurs techniques d’IA, tout comme la concurrence Deloitte LLC et KPMG LLC. Les moteurs de recherche, qui font partie d’Alphabet Inc., ont commencé à fournir aux utilisateurs des moyens de comprendre leurs ensembles de règles pour mieux reconnaître leurs opérations décisionnelles. En juin, Microsoft Corp. a obtenu Bonsai, une start-up de l’État de Californie qui s’était engagée à construire une IA explicable. Kyndi, une start-up de l’IA de San Mateo, en Californie, a même déposé une marque déposée sur le mot «Explainable AI» pour aider à proposer son application de compréhension des appareils.