Intelligence artificielle et outils d'aide à la décision : il manque des garde-fous

Selon Gartner, la valeur économique de l’intelligence artificielle (IA) sera probablement multipliée au moins par 4 entre 2018 et 2025, passant de 1180 milliards de dollars à 5050 milliards de dollars.

Ces milliers de milliards illustrent l’ampleur de l’impact de ces nouvelles technologies sur l’ensemble de l’économie. Elle concerne tous les secteurs et elle est au cœur de plusieurs autres technologies disruptives: c’est une méta-technologie.

Interview d’Angel Martinez, associé, étic SA, sur les enjeux de l’IA dans son domaine d’activités, qui regroupe les secteurs liés aux technologies, à l’organisation et à la résilience au sein des sociétés et institutions.

 

En premier lieu, quelle est votre définition de l’intelligence artificielle (IA)?

Selon le Larousse, l’IA est l’ensemble des théories et techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine.

En réalité de nos jours, le terme IA est souvent utilisé par les médias, mais reste mal compris par le public. En raison de certaines craintes liées à des spéculations concernant des IA pouvant être autonomes et s’opposant aux humains.

Aujourd’hui, les IA fonctionnent grâce au concept de réseaux de neurones artificiels permettant des opérations complexes ainsi que sur la base de l’apprentissage profond (deep learning). A mon sens, la capacité des IA actuelles reste faible à modérée, l’IA forte dotée d’une forme de conscience d’elle-même n’existe pas.

 

L’IA impacte tous les secteurs d’activité. Dans quelles applications concrètes est-elle utilisée dans votre métier, qui se situe à la confluence entre la technologie, l’organisation et la résilience?

L’IA est largement utilisée dans le traitement des images en vidéosurveillance. Certains constructeurs de caméras ou éditeurs de logiciel d’analyse d’images proposent des algorithmes permettant par exemple de détecter des intrusions, abandons d’objets ou mouvements inhabituels dans des zones prédéterminées.

Elle est également utilisée pour des lecteurs biométriques équipés de capteurs vidéo permettant d’effectuer de la reconnaissance faciale: les détails et les traits du visage (points de mesures) sont analysés par l’IA, ce qui permet de les comparer à une base de données et d’autoriser ou non un accès.

Nous constatons également une demande croissante sur la possibilité d’utiliser une IA pour des centres opérationnels de sécurité (COS), l’IA effectuerait le tri et traiterait intelligemment les différentes informations reçues dans le COS. Ceci permettrait aux opérateurs de focaliser toute leur attention uniquement sur les alarmes ou informations importantes.

L’IA est un outil puissant d’aide à la décision. Nous en sommes encore aux balbutiements, mais à terme le but ultime consisterait en un seul point d’entrée, qui permettrait de gérer toutes les opérations entre les systèmes d’information d’une entité et qui coordonnerait les flux entre les différents logiciels de type CRM, ERP.

 

Dans quelle mesure, la loi protège la victime d’un vol de données personnelles avec ces informations biométriques?

En cas de vol des données personnelles, le risque est réel que vos caractéristiques biométriques soient utilisées sans votre consentement.

Avant toute utilisation de technologies biométriques, il est important de tenir compte des lois suisse et européenne sur la protection des données (LPD loi fédérale sur la protection des données et RGPD règlement général européen sur la protection des données).

Les amendes prévues par le LPD vont jusqu’à 250.000 francs suisses et pour le RGPD cela peut aller jusqu’à 4% du chiffre d’affaire annuel d’une société.

A titre d’exemple, en France la CNIL a infligé une amende de 50 millions d’euros à Google en janvier 2019 pour non-respect de certains principes du droit européen sur les données personnelles.

 

Le plus grand risque lié à l’application de l’IA est la fiabilité et la qualité des données. Quid de la sécurité des données personnelles?

C’est en effet une question importante. Nous avons déjà pu voir sur les réseaux sociaux quelques dérapages de vidéos détournées à l’aide d’une IA capable de modifier les mouvements de lèvres et de calquer la voix d’une personne pour faire passer un faux message (fakenews). D’ailleurs en 2019 il y a eu un exemple spectaculaire d’une vidéo circulant sur YouTube montrant Donald Trump annonçant la fin du sida. Pour le moment il est encore possible d’identifier ce type de montage, mais qu’en sera-t-il lorsque ces IA pourront effectuer de telles modifications à la volée sans possibilité de détecter un montage?

Nos données personnelles nous appartiennent, les lois existent pour nous protéger mais chacun doit prendre ses responsabilités dans la gestion et la diffusion d’informations personnelles comme par exemple sur les réseaux sociaux.

 

Selon Gartner, la valeur économique de l’intelligence artificielle (IA) sera probablement multipliée au moins par 4 entre 2018 et 2025, passant de 1180 milliards de dollars à 5050 milliards de dollars. Pensez-vous que l’évolution de l’IA est inéluctable?

Je vais vous répondre en 3 points:

  1. Année après année, nous avons une augmentation rapide de la capacité de calcul des équipements informatiques avec en complément la probabilité de l’apparition d’ordinateurs quantiques à moyen terme, qui permettrait de démultiplier cette capacité.
  2. Les données permettant l’apprentissage des IA, sont déjà récoltées en masse au travers d’internet, à l’aide de nombreuses sociétés ayant des intérêts économiques dans ce domaine, mais également grâce aux réseaux sociaux où les utilisateurs fournissent des informations personnelles pouvant être utilisées sans restriction.
  3. Les capacités de stockage de données sont pratiquement illimitées, grâce aux nombreux hébergeurs privés et aux grandes sociétés mondiales ayant leurs propres datacenters.

Ces trois constats nous portent à croire que l’évolution de l’IA dans nos sociétés sera inéluctable vu les enjeux économiques. Ces nouveaux algorithmes d’intelligence artificielle feront partie de notre vie quotidienne.

Face à ces risques, quid des garde-fous face à une IA forte?

Il y en a peu et ce sera un des enjeux majeurs, afin d’éviter de potentielles dérives. A ma connaissance, il n’y a aucune loi qui dicte ce qu’une IA forte aurait le droit ou non de faire.

Facebook
Twitter
LinkedIn
WhatsApp
Email