83.9 F
New York

La sécurité sur Internet : L’IA rendra-t-elle le monde numérique plus sûr ou moins sûr ?

Il est fascinant de voir avec quelle facilité l’IA permet de visualiser des idées complexes, de fusionner rapidement des informations apparemment aléatoires dans un contexte global utile ou de vérifier des faits. À première vue, c’est un gain incroyable, tant sur le plan privé que professionnel.

Mais que se passe-t-il si ce gain reste unilatéral, si l’IA est utilisée de manière manipulatrice ? Dans un monde dominé par les médias, les frontières claires entre fiction et réalité appartiennent depuis longtemps au passé. Nous voulons des illusions. Nous aimons le jeu de la fuite de la réalité. Mais cela en vaut-il la peine à tout prix ? Il s’ensuit un examen critique des avantages et des inconvénients de l’intelligence artificielle dans le quotidien numérique.

L’IA, une amie et une aide

D’un point de vue réaliste, le réseau numérique tel que nous le connaissons a depuis longtemps dépassé l’entendement humain. Le mirage de la proximité et de la disponibilité est devenu un élément indispensable de la vie quotidienne, où le fait d’être en réseau semble promettre des libertés infinies, mais qui – on s’en doute – se heurtent violemment à la réalité des normes et des valeurs de notre société. Une réalité qui implique la propriété, les droits de la personnalité et la valeur des marchandises et qui exige donc des structures et un contrôle.

C’est là que les avantages de l’IA entrent en jeu. La comparaison en quelques secondes d’énormes quantités de données donne à la technique l’option de saisir immédiatement les événements inhabituels et d’y réagir sans délai. La plupart des utilisateurs ne sont même pas conscients de cet effet protecteur, tant certaines applications s’intègrent naturellement dans le quotidien médiatique. Pensons par exemple aux exemples suivants :

Sécurité du réseau grâce à l’analyse structurée

Les réseaux internes gèrent des données sensibles qui deviennent encore plus vulnérables lorsqu’elles sont connectées au World Wide Web. Chaque application médicale, chaque échange de données scientifiques et chaque déclaration de maladie à l’école comportent, à leur manière, un risque personnel.

Il en va de même pour le fonctionnement des programmes en tant que tels. Si le système de gestion des données d’une grande entreprise de logistique tombe en panne en raison de structures dysfonctionnelles ou d’attaques extérieures, les marchandises ne sont pas livrées et les services ne sont pas fournis. La chaîne des problèmes qui en résultent est sans fin.

Les systèmes IDS (Intrusion Detection Systems) et IPS (Intrusion Prevention Systems) basés sur l’intelligence artificielle analysent donc en permanence le trafic réseau et recherchent, à l’aide d’algorithmes d’apprentissage automatique, les événements anormaux pouvant indiquer des menaces potentielles.

Des systèmes de gestion des correctifs automatisés comblent ensuite ces failles de sécurité, parfois sans aucune assistance humaine. Cela permet d’obtenir une vitesse de réaction extrêmement élevée qui devrait rendre pratiquement impossible aux pirates informatiques de pénétrer dans le système.

Optimisation de la finance et de la protection des données

Avec l’aide de l’IA, les banques peuvent examiner les données de transaction en temps réel et reconnaître ainsi les modèles qui indiquent des activités frauduleuses. Grâce à cette fonction, les transactions suspectes peuvent être marquées pour un examen plus approfondi ou immédiatement bloquées. Il s’agit d’une avancée considérable, notamment en ce qui concerne le phishing et l’usurpation d’identité.

Ici, tout comme dans les échanges administratifs, l’authentification multi-facteurs et les systèmes biométriques sont utilisés pour améliorer la gestion des identités et des accès. La reconnaissance faciale, la numérisation des empreintes digitales et l’analyse des tentatives de connexion sont des processus coûteux. Sans systèmes bien connectés, l’analyse des quantités de données correspondantes serait difficilement envisageable.

Filtres de messagerie et systèmes de protection

Dans ce contexte, l’idée d’une protection antivirus et d’une détection des courriels malveillants s’impose. La détection de l’hameçonnage peut être maintenue à jour en permanence à l’aide de systèmes auto-apprenants, ce qui rend les points d’attaque possibles de plus en plus rares. Le contenu des e-mails et les métadonnées sont comparés entre les différents systèmes, les falsifications peuvent être détectées et bloquées.

Une procédure qui fonctionne aussi bien pour les e-mails entrants que pour des pages Internet complètes, comme cela est déjà utilisé depuis longtemps dans le casino en ligne et la consultation des données est ainsi plus sûre et le transfert de moyens financiers également.

Les terminaux profitent de la même manière de l’apprentissage automatique. Ils sont généralement protégés contre les logiciels malveillants par des systèmes NGAV.

Analyse du comportement pour le bien des utilisateurs

L’analyse du comportement des utilisateurs, souvent fondamentale pour de tels procédés, peut faire plus que contrôler. C’est elle qui personnalise les expériences en ligne, qui adapte l’expérience d’achat à des intérêts particuliers et qui veille à ce que les réponses aux demandes de recherche soient orientées vers le groupe cible.

L’analyse du panier d’achat ou une suggestion pour la prochaine excursion du week-end peuvent être complétées par des fonctions nettement plus précieuses.

Bien entendu, il s’agit dans ce contexte également d’abord de sécurité et de recommandations de jeux, mais des entreprises comme Mindway AI vont encore plus loin. Leurs efforts ne s’arrêtent pas à la commercialisation financièrement prometteuse des jeux de hasard, ils aident l’utilisateur à reconnaître les comportements de jeu potentiellement nuisibles grâce à des analyses d’arrière-plan et à prévenir ainsi l’addiction. Une approche qui peut être appliquée à de nombreux domaines de la vie.

Tout ce qui brille n’est pas or

Au plus tard avec l’idée de l’analyse du comportement, il devient toutefois clair que tous ces processus peuvent être utilisés à l’inverse par les agresseurs.

Manipulation par de fausses informations

Plus il est possible de collecter de données sur un groupe cible, plus il est facile de le manipuler, et cela peut se faire à merveille par le biais des images mentionnées au début. Qui sait ce qui est réel et ce qui ne l’est pas lorsqu’il est possible de faire exécuter n’importe quelle activité à l’image de n’importe quelle personne ?

Les “deepfakes” sont donc sur toutes les lèvres, le principe pouvant être appliqué à n’importe quel média grâce aux technologies actuellement disponibles. Les idées de désinformation et de chantage sont donc évidentes. Il en résulte des incertitudes auxquelles nous ne savons actuellement pas faire face, ni sur le plan éthique ni sur le plan juridique.

Cyberattaques commandées par l’IA

Les logiciels qui détectent les attaques de phishing n’ont bien entendu aucun problème moral lorsqu’il s’agit de générer eux-mêmes de faux e-mails à l’aide du Natural Language Processing. Après tout, le système “sait” mieux que quiconque ce à quoi il doit renoncer pour ne pas se trahir.

De cette manière, il est possible de tromper de manière ciblée certaines personnes et entreprises. Sous cette forme, il est également possible de perfectionner les attaques DDoS, c’est-à-dire les accès qui tentent de contourner d’autres systèmes de sécurité générés par ordinateur.

Perturbation au sein des systèmes d’IA

Même si les systèmes autonomes sont en mesure d’apprendre par eux-mêmes et de se mettre à jour en permanence, ils restent manipulables et dépendent dans leur exécution des ensembles de données auxquels ils ont accès.

Si on leur fournit de fausses informations plausibles, ils prennent des décisions sans se laisser impressionner et sans douter de leur logique. Les machines commandées par des logiciels manipulés de la sorte commettent des erreurs dangereuses. Les chats automatisés peuvent être discriminatoires, les statistiques falsifiées, etc.

Malgré l’IA : le comportement moral reste le devoir de l’utilisateur !

Ces idées et d’autres similaires illustrent le conflit dans lequel nous plonge la confrontation avec l’intelligence artificielle. De la même manière que la connaissance des processus nucléaires nous fournit des systèmes de production d’énergie efficaces en plus d’armes menaçantes, les systèmes d’IA comportent également des avantages et des inconvénients que nous ne pouvons pas entièrement mettre en balance avec notre niveau de connaissances actuel.

Pourtant, cette discussion n’est pas vraiment une question de “pour ou contre”. Il ne semble guère logique de s’opposer à l’utilisation de technologies intelligentes. Dans cette mesure, le rejet de ces techniques établies depuis longtemps n’est pas non plus une “voie sûre”.

Un environnement en ligne sûr, comme le suggèrent les exemples cités, repose sur des décisions individuelles moralement mûres. Ce n’est donc pas l’IA elle-même qui rend le monde numérique sûr ou non, c’est bien plus l’utilisation des possibilités qui nous sont offertes qui devrait nous préoccuper. Non pas si, mais comment.

 

0 / 5

Your page rank:

Plus d'articles

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Derniers Articles