DIGITAL SOLUTIONS
La nouvelle politique de Google sur le développement de l’Intelligence Artificielle
Au cœur de plusieurs affaires, le géant américain s’engage dans une nouvelle politique de son développement de l’Intelligence Artificielle. Une nouvelle stratégie où l’Homme devient le premier bénéficiaire de l’I.A.
June 21, 2018
Une nouvelle ligne de conduite
Avec le développement des nouvelles technologies (machine learning, deep learning..), l’intelligence artificielle devient un marché lucratif incontournable. Bien que possédant de nombreux intérêts valorisants, certaines utilisations de l’I.A. demeurent quant à elles beaucoup moins glorieuses. En effet, Google a récemment fait parler suite à des scandales concernant le commerce de données personnelles d’enfants ou encore sur l’utilisation de l’I.A. au profit de création d’armement pour la défense américaine : Projet Maven.
Tous ces scandales font que le géant américain entre dans une ère où il se doit de redorer son blason. Google affiche actuellement une politique d’image visant à rassurer l’utilisateur. Sa campagne de communication autour du slogan « don’t be evil » en témoigne.
Aujourd’hui, le géant du web se fixe de nouveaux principes de conduite quant à la gestion de son développement digital notamment dans le domaine de l’intelligence artificielle. Si l’armement lui est désormais proscrit, l’utilisation de l’I.A. à des fins plus nobles tel que la cyber-sécurité, devient son leitmotiv.
L’ I.A. au service du bien collectif
Fort de ces ambitions, Google adopterait une nouvelle ligne directrice visant à respecter le bien collectif ainsi que les libertés individuelles et les droits fondamentaux des personnes. Ainsi l’intelligence artificielle serait au service de l’Homme pour l’Homme et non dédiée à sa surveillance ni au marchandage de données personnelles ou encore à sa destruction par outil de guerre intelligent. Les principes suivant engagent donc le géant américain dans une voie de progrès technologique au profit de l’humain. Pour ce faire l’I.A de Google devra donc :
– Être socialement et économiquement profitable
– Éviter de créer ou renforcer des biais injustes
– Être conçue et testée avec un objectif de sécurité
– Être responsable envers les gens
– Comporter des principes de privauté
– Maintenir de hauts standards d’excellence
– Se mettre à disposition pour des usages en accord avec ces principes
Tous ces principes seront évalués selon un rapport bénéfices/risques positif afin de valider une application d’intelligence artificielle. Cette balance ne devra en aucun cas porter atteinte aux droits humains. De plus, des contraintes de sécurité seront ajoutés aux applications qualifiées de bénéfique. De quoi rassurer les futurs utilisateurs !