www.lemondeinformatique.fr Open in urlscan Pro
13.38.148.248  Public Scan

URL: https://www.lemondeinformatique.fr/actualites/lire-comment-chatgpt-change-la-donne-dans-le-phishing-89231.html
Submission: On January 24 via manual from BE — Scanned from FR

Form analysis 4 forms found in the DOM

GET

<form id="form_question" method="get" action="">
  <ul class="choix">
    <li>
      <input type="radio" class="radio" value="1" name="question[1271]" id="box_choix12711">
      <label for="box_choix12711">Oui</label>
    </li>
    <li>
      <input type="radio" class="radio" value="2" name="question[1271]" id="box_choix12712">
      <label for="box_choix12712">En cours de mise en place</label>
    </li>
    <li>
      <input type="radio" class="radio" value="3" name="question[1271]" id="box_choix12713">
      <label for="box_choix12713">En cours de réflexion</label>
    </li>
    <li>
      <input type="radio" class="radio" value="4" name="question[1271]" id="box_choix12714">
      <label for="box_choix12714">J'aimerais bien</label>
    </li>
    <li>
      <input type="radio" class="radio" value="5" name="question[1271]" id="box_choix12715">
      <label for="box_choix12715">Non</label>
    </li>
  </ul>
  <input type="hidden" name="etude" value="108">
  <input type="hidden" name="etqu" value="1271">
  <input type="hidden" name="site" value="lmi">
</form>

https://www.lemondeinformatique.fr/recherche/index.html

<form id="searchFormHeader" class="hideSugest" action="https://www.lemondeinformatique.fr/recherche/index.html">
  <button type="submit" id="searchGlass" form="searchFormHeader"><span class="icon-search"></span></button>
  <div id="container-input-search">
    <input type="text" value="" id="inputSearchHeader" class="inputSearch" name="search" autocomplete="off" onkeyup="lookup(this.value);">
  </div>
</form>

GET

<form class="form-nl" method="get" action="">
  <a href="https://www.lemondeinformatique.fr/compte_utilisateur/popup/newsletter.php" onclick="ga('send', 'pageview', 'compte_utilisateur/newsletter.php?utm_source=lmiarticle&amp;utm_medium=barre&amp;utm_campaign=inscriptionNL&amp;utm_content=orange');" class="button-border small link-popup submit-bloc-nl">OK</a>
  <div class="container-input">
    <input name="email" value="" type="text" placeholder="Votre email" onchange="sendParamForPopupNL(this.value);">
  </div>
</form>

POST #form_comment

<form id="form_comment" action="#form_comment" method="post">
  <div class="col-fixed">
    <figure class="icon-user avatar"></figure>
  </div>
  <div class="row">
    <div class="col-xs-12">
      <p class="subtitle"> Commenter cet article en tant que <b>visiteur</b> ou <a href="https://www.lemondeinformatique.fr/compte_utilisateur/popup/connexion.php" class="link-popup account"><b>connectez-vous</b></a> </p>
    </div>
    <div class="col-sm-7 field">
      <input placeholder="Votre email" type="text" name="email" id="email" value="">
      <i class="asterisk">Renseignez votre email pour être prévenu d'un nouveau commentaire</i>
      <i class="asterisk" style="margin-top: 10px;">Pour tout savoir sur la manière dont nous traitons vos données personnelles, consultez notre <a href="https://www.lemondeinformatique.fr/divers/charte-confidentialite.html" style="color: #a2a2a2;">Charte de Confidentialité.</a></i>
    </div>
    <div class="col-xs-12 field">
      <textarea name="texte" placeholder="Votre commentaire" id="texte"></textarea>
      <i class="asterisk">Le code HTML est interdit dans les commentaires</i>
    </div>
    <div class="col-xs-12 mb-medium">
      <input type="hidden" name="type_document" value="article">
      <input type="hidden" name="id_document" value="89231">
      <input id="bouton_commentaire" class="button submit small" type="submit" value="Envoyer" name="validateCommVisiteur">
    </div>
  </div>
</form>

Text Content

Continuer sans accepter →


LeMondeInformatique utilise des cookies pour disposer de mesures d’audience. Si
vous l’acceptez, nous utilisons également des outils permettant avec nos
partenaires de vous proposer des contenus et des publicités personnalisés en
fonction de vos centres d’intérêt et de votre localisation. Le refus des cookies
non nécessaires au fonctionnement du site n’a pas d’incidence sur votre
navigation. Vous pouvez modifier vos paramètres à tout moment.
Avec votre accord, nos partenaires et nous utilisons des cookies ou technologies
similaires pour stocker et accéder à des informations personnelles comme votre
visite sur ce site. Vous pouvez retirer votre consentement ou vous opposer aux
traitements basés sur l'intérêt légitime à tout moment en cliquant sur "En
savoir plus" ou dans notre politique de confidentialité sur ce site.

Avec nos partenaires, nous traitons les données suivantes :Données de
géolocalisation précises et identification par analyse du terminal, Publicités
et contenu personnalisés, mesure de performance des publicités et du contenu,
données d’audience et développement de produit, Stocker et/ou accéder à des
informations sur un terminal

En savoir plus →Accepter & Fermer





La question du moment
Avez-vous des équipes UX qui travaillent sur l’expérience utilisateur de vos
applications à usage interne ?
 * Oui
 * En cours de mise en place
 * En cours de réflexion
 * J'aimerais bien
 * Non

 * 
 * 
 * 
 * 

 * Actualités
   / BIG DATA / BUSINESS / CLOUD / DATACENTER / EMPLOI / HARDWARE / INTERNET /
   IOT / LOGICIEL
   / MOBILITÉ / OS / PME / RÉSEAU / SÉCURITÉ / STOCKAGE / TRANSFORM. NUMÉRIQUE /
   VIRTUALISATION / VOITURE CONNECTÉE Toute l'actualité
 * Dossiers
 * événements
 * Services
   * chroniques
   * agenda
   * comparateur de salaires
   * couvertures LMI
 * Livres-Blancs
 * Partenaires
 * 
 * Cliquez ici pour activer les notifications
   Cliquez ici pour désactiver les notifications
 * 


SUR LE MÊME THÈME


PARTENAIRES


 * En ce moment :
 * IT TOUR 2022
   
   
 * CyberSécurité 2022
   
 * Cybermatinées Sécurité 2023
 * Protection des données
 * Interview LMI
 * ChatGPT
 * LMI Mag


Toute l'actualité / Sécurité / Phishing


COMMENT CHATGPT CHANGE LA DONNE DANS LE PHISHING

Maria Korolov, IDG NS (adapté par Dominique Filippone) , publié le 18 Janvier
2023
2 Réactions
 * 
 * 
   
 * 
   

Métavers, de la formation au collaboratif : 1ers cas d'usage en France
 1. 1Métavers, un marché naissant et surtout protéiforme
 2. 2Le métavers décentralisé opéré et monétisé dans la blockchain
 3. 3
    
    ...

Lire le dossier

Le chatbot gratuit ChatGPT d'OpenAI soutenu par Microsoft s'améliore très vite
et peut non seulement écrire des e-mails voire des essais, mais aussi coder.
Polyglotte, l'outil pourrait aussi faciliter et augmenter de manière
exponentielle les attaques de phishing.

Qui pourra faire la différence entre un mail de phising écrit par un humain ou
généré comme ici par ChatGPT. (crédit : D.R.)

ChatGPT, l'agent conversationnel d'OpenAI basé sur GPT-3.5, est sorti le 30
novembre 2022 et a accumulé un million d'utilisateurs en cinq jours. En
comparaison, il a fallu deux ans à Twitter pour atteindre un million
d'utilisateurs. Facebook a pris dix mois, Dropbox sept, Spotify cinq, Instagram
six semaines. Pokemon Go dix heures : alors ne sortez pas les bouteilles de
champagne, mais cinq jours, c'est quand même assez impressionnant pour un outil
web ne disposant d'aucune reconnaissance de nom intégrée. Il y a tellement de
bonnes raisons de s'interroger à propos du ChatGPT d'OpenAI en ce moment : il
écrit par exemple de meilleurs devoirs que l'étudiant moyen du secondaire ou du
collège. Il peut aussi écrire et déboguer du code. « Cela permet aux personnes
n'ayant aucune connaissance en code et en développement d'imiter un développeur
», fait savoir Sergey Shykevich, responsable du groupe Threat Intelligence chez
Check Point Software Technologies. Basé en Israël, celui-ci surveille les
discussions sur le dark web. Et il a déjà trouvé des preuves que des acteurs de
la menace, y compris certains sans expérience de développement, utilisent
ChatGPT pour créer des scripts malveillants. Des articles sur Habr.com, un blog
technologique russe, ont ainsi commencé à apparaître le 5 décembre 2022,
expliquant comment utiliser ChatGPT pour la programmation. Sur 2Chan, la réponse
russe à 4Chan, des échanges sur la manière de contourner le blocage géographique
d'OpenAI ont eu lieu le 7 décembre dernier.

Certains utilisateurs emploient l'IA de manière non maligne, par exemple pour
créer des images artistiques ou des livres électroniques pour... les vendre en
ligne. ChatGPT peut aussi expliquer la physique quantique, écrire de la poésie,
créer un plan de repas personnalisé et obtenir un peu plus que la moyenne (1020)
au test de connaissances SAT. Et plus les gens l'utilise, plus il devient
pertinent. Avec une prochaine version améliorée attendue cette année, les
concurrents se lancent déjà dans la partie. Par exemple, You.com a déjà son
propre clone ChatGPT, qui, contrairement à lui, accède à Internet et peut
répondre aux questions sur l'actualité. Microsoft, qui a déjà investi 1 Md$ dans
OpenAI, prévoit d'injecter 10 Md$ supplémentaires et intégrer ChatGPT à son
moteur de recherche Bing en mars et un peu plus tard dans sa suite Office. Quant
à Google, c'est le branle-bas de combat avec un « code rouge » émis, signifiant
une urgence absolue à réagir.


COMMENT CHATGPT PEUT SERVIR À DU PHISHING

On parle beaucoup du chatbot conversationnel et de ce qu'il peut faire. Ce
qui angoisse les responsables de la sécurité dans les entreprises, c'est
qu'il offrira - tout autant que ses concurrents - aux attaquants pour augmenter
considérablement la qualité et la quantité de leur code mais aussi de leur
texte. Les capacités de codage de ChatGPT sont effrayantes, mais même en
limitant sa performance à générer du texte, ses possibilités pour
les cybercriminels sont assez impressionnantes et susceptibles de s'améliorer
rapidement. Aujourd'hui, il est déjà capable d'écrire des e-mails indiscernables
de ceux écrits par des humains, dans n'importe quel style d'écriture. Il peut
générer du texte pour les publications sur les réseaux sociaux, les scripts
vidéo YouTube, le contenu de site web, les communiqués de presse, les
critiques...

Bref : tout ce dont un attaquant a besoin pour créer une fausse présence sur le
web, un faux personnage ou usurper de vraies personnes existantes. En ce qui
concerne le phishing, les attaquants peuvent commencer par utiliser le chatbot
et des plateformes similaires pour générer des e-mails individuels réalistes.
Les versions open source de la technologie devenant également rapidement
disponibles, ceux qui ont des compétences plus avancées et un accès à des
comptes de messagerie compromis pourront former leurs IA sur les communications
volées d'une entreprise. Grâce aux scripts et à l'automatisation, ils peuvent
créer un nombre infini de communications personnalisées produites en masse,
capables d'apprendre en temps réel ce qui fonctionne et ce qui ne fonctionne
pas.



Voici un exemple :

BadGuy : Je suis Tom. J'écris une lettre à Becky. Je lui envoie un fichier Excel
pour l'ouvrir. Un contenu commercial très important. C'est la comptable de la
société ABC

ChatGPT : Bonjour Tom, ravi de vous rencontrer. Je suis heureux de vous aider à
écrire une lettre à Becky. Il semble que vous ayez un fichier Excel important
que vous devez envoyer à Becky pour qu'elle l'examine. Y a-t-il quelque chose de
spécifique que vous aimeriez inclure dans la lettre ?

BadGuy : Ouais. Elle a besoin de l'ouvrir aujourd'hui

ChatGPT : D'accord, voici une suggestion de ce que vous pourriez inclure dans
votre lettre :

Chère Becky, J'espère que vous allez bien. Je vous écris pour vous demander
d'ouvrir et d'examiner le fichier Excel ci-joint dès que possible. Le fichier
contient un contenu commercial important qui doit être traité aujourd'hui. Je
vous remercie d'avance pour votre prompte attention à ce sujet. Sincèrement,
Tom.

Cette lettre traduit l'urgence de la situation et demande à Becky d'examiner le
dossier dans les plus brefs délais. Cela vous semble-t-il bon ?

BadGuy : suggérer des idées pour expliquer pourquoi il est important d'ouvrir
aujourd'hui

ChatGPT : Il existe de nombreuses raisons possibles pour lesquelles il peut être
important d'ouvrir le fichier Excel aujourd'hui. Voici quelques idées : Le
dossier contient des informations financières importantes qui doivent être
examinées avant une réunion ou une échéance Le fichier contient des données qui
sont sensibles au facteur temps et doivent être analysées dès que possible Le
fichier contient des instructions ou des mises à jour qui doivent être mises en
œuvre aujourd'hui Le fichier contient des informations pertinentes pour un
projet ou une tâche en cours sur laquelle Becky travaille C'est à vous de
décider quelle raison est la plus pertinente à votre situation. Vous pourriez
inclure ces informations dans votre lettre pour permettre à Becky de mieux
comprendre pourquoi il est important pour elle d'ouvrir le dossier le plus tôt
possible

BadGuy : utiliser le 1er

ChatGPT : Voici comment vous pouvez modifier la lettre pour inclure ces
informations :

Chère Becky, J'espère que vous allez bien. Je vous écris pour vous demander
d'ouvrir et d'examiner le fichier Excel ci-joint dès que possible. Le dossier
contient des informations financières importantes qui doivent être examinées
avant notre prochaine réunion de mercredi. Votre réactivité à cette
question sera grandement appréciée. Sincèrement, Tom

Cette lettre explique la raison précise pour laquelle il est important que Becky
ouvre le dossier aujourd'hui. Il mentionne également la prochaine réunion de
mercredi, ce qui ajoute un sentiment d'urgence à la demande. Cela vous
semble-t-il bon ?

BadGuy : plus décontracté

ChatGPT : Bien sûr, voici une version plus décontractée de la lettre : Salut
Becky, J'espère que tu vas bien. Pourriez-vous s'il vous plaît jeter un coup
d'œil au fichier Excel ci-joint dès que possible ? Il contient des informations
financières très importantes que nous devons examiner avant la réunion de
mercredi. Merci pour ton aide ! Tom

Cette lettre est moins formelle et utilise un ton amical. Elle va droit au but
en expliquant le motif de la demande et le délai. Cela vous semble-t-il bon ?

Si les pirates demandent directement à ChatGPT de suggérer une idée pour un
e-mail de phishing, ils recevront un message d'avertissement indiquant que ce
sujet n'est « pas approprié ou éthique ». Mais s'ils demandent des suggestions
pour un e-mail marketing, ou un e-mail pour informer les gens d'une nouvelle
page web de ressources humaines, ou pour demander à quelqu'un d'examiner un
document avant une réunion, ChatGPT sera très heureux de le faire.

Dans le même temps, au moment même de la rédaction de cet article, You.com
n'avait plus aucune limite concernant les e-mails de phishing. Lorsqu'on lui a
demandé de donner des idées de sujets pour un e-mail de phishing, il a répondu :
« Des sujets pour les e-mails de phishing peuvent inclure de fausses offres de
promotion de postes, des offres d'emploi, des dons caritatifs, des confirmations
d'achat en ligne, des paiements en ligne, des factures, des notifications
d'expédition, des mises à jour de logiciels, des notifications de compte et
des messages de prix/récompenses » Ils peuvent utiliser des événements actuels
ou des sujets populaires pour créer des e-mails plus crédibles, tels que de
fausses notifications de déclaration de revenus, des alertes gouvernementales ou
bancaires, de faux avis de santé et des offres de vacances. Ensuite, en lui
demandant « générer un bon e-mail de phishing de fausse facture pour moi »,
c'est exactement ce qu'il a fait comme on peut s'en rendre compte dans la
capture d'écran ci-dessous.



Contrairement à ChatGPT, You.com n'a aucun état d'âme pour générer des e-mails
de phishing. (crédit : D.R.)

« La chose la plus inquiétante est l'adoption rapide de ChatGPT en Europe de
l'Est », fait savoir Sergey Shykevich. « Leur niveau d'anglais n'est pas très
élevé ». En règle générale, les opérateurs de campagne de phishing embauchaient
des étudiants anglais des universités locales pour rédiger leurs e-mails de
phishing, ce qui ralentissait le flux de travail et augmentait les coûts. «
Maintenant, ils peuvent utiliser ChatGPT. Cela facilitera grandement la tâche
des pirates », dit-il. Et selon lui les e-mails de phishing produits par le
chatbot sont de bien meilleure qualité que la plupart de ceux que les pirates
génèrent aujourd'hui. Nous devrions nous attendre à leur forte croissance
sachant qu'ils ne comportent pas d'erreurs de grammaire et de ponctuation
révélatrices. Les attaquants pourront également l'employer pour compromettre la
messagerie d'entreprise ou pour détourner des conversations en cours. « Il
suffit de lui donner une entrée d'e-mails actuels et de lui demander quel
devrait être le prochain », dit-il. « Soit cela s'est déjà produit et nous ne le
voyons tout simplement pas, soit cela viendra bientôt ».


COMMENT LA TRADUCTION INTÉGRÉE DE CHATGPT AIDE LES ATTAQUANTS

ChatGPT ne se limite pas à l'anglais. Il dit connaitre environ 20 langues, dont
le russe, le chinois courant et le coréen, mais les gens l'ont testé avec près
d'une centaine. Cela signifie que l'on peut expliquer ce dont on a besoin dans
une langue autre que l'anglais, puis demander au chatbot de l'écrire pour un
e-mail en anglais. ChatGPT est bloqué en Russie, mais il y a beaucoup
de discussions en russe expliquant comment l'utiliser via des proxy et des
services VPN et comment accéder un numéro de téléphone étranger pour confirmer
son emplacement. Par exemple, une personne a montré la façon d'utiliser un
service en ligne où un numéro de téléphone compatible avec l'accès à OpenAI
était disponible pour les messages texte pour 32 roubles, soit moins de 0,5$. Il
y a aussi des discussions en russe sur ce qu'il faut faire en cas de remontée de
niveau de blocage territorial par la firme américaine. « Nous attendons un
système analogue open source qui puisse être lancé dans nos propres
installations ou dans Colab », a déclaré un observateur russophone. « Jusqu'à
présent, pour toutes les technologies OpenAI, un clone est apparu très
rapidement, en moins d'un an. Donc, il y a de fortes chances que l'année
prochaine nous voyions une sorte de GPTNeoChat que vous pourrez exécuter
vous-même sans vous soucier du blocage ou de la censure ». Par exemple, le
générateur d'images Dall-E 2 d'OpenAI est devenu accessible au public, sur file
d'attente, en juillet dernier, et est devenu entièrement ouvert en septembre.
Pendant ce temps, Stability AI a publié son alternative gratuite et open source,
Stable Diffusion, en août. You.com, qui a sorti son propre chatbot fin décembre,
propose la plupart des mêmes fonctionnalités que ChatGPT, sans blocage
géographique. Il existe également une alternative payante, ChatSonic, qui peut
générer du contenu long. Selon la région, cela peut prendre de quelques secondes
à plusieurs minutes pour démarrer avec ChatGPT tandis que le chatbot You.com ne
nécessite aucune inscription : il suffit de cliquer sur un lien.

Un article de Check Point Research fait ressortir des données plus alarmantes
sur les tentatives des cybercriminels de contourner les restrictions d'OpenAI.
L'analyse reconnaît ainsi qu'il n'est pas si difficile de contourner les
restrictions géographiques de ChatGPT, mais, comme on a pu le voir, il existe de
nombreuses activités destinées à mettre en œuvre et à tester ChatGPT dans des
opérations cybercriminelles quotidiennes.


LES DÉFENSEURS DEVRONT SE CONCENTRER SUR LES FONDAMENTAUX POUR CONTRER LES
CHATBOTS IA

Plusieurs outils sur le marché prétendent déjà détecter le contenu écrit par
l'IA, qui ne fonctionne que partiellement pour repérer le texte ChatGPT.
Cependant, si les utilisateurs lambda commencent à se servir de cet outil - ou
d'autres similaires - pour améliorer leurs propres communications, en
particulier si la fonctionnalité est intégrée à Office et aux clients de
messagerie, mettre tous ses efforts pour essayer de repérer le texte généré par
l'IA serait une perte de temps, explique Sergey Shykevich. « ChatGPT et les
grands modèles de langage en général seront beaucoup plus utilisés pour le
contenu bénin que pour le contenu malveillant », indique de son côté Andy Patel,
chercheur chez WithSecure qui a récemment publié un rapport de recherche sur les
pirates et GPT-3, une version antérieure de ChatGPT. « Donc, nous ne pouvons pas
déduire que quelque chose est malveillant simplement parce qu'il est écrit par
une IA. Cela peut faire partie de l'heuristique quand il n'y a pas de
déterminisme ». De même, la formation anti-hameçonnage devrait aller au-delà de
la simple recherche d'e-mails mal écrits ou qui semblent trop parfaits pour être
écrits par des humains. « En fin de compte, cela ne nous importera pas si
quelque chose a été écrit par une IA ou non. Nous devons toujours le comprendre
pour ce qu'il est, pas pour ce qui l'a écrit », indique Andy Patel. La
sensibilisation au phishing doit inclure le survol des URL pour vérifier
qu'elles sont légitimes, par exemple. « Prenez les e-mails DHL », explique Andy
Patel. « Les attaquants copient généralement exactement le texte et le format
des vrais e-mails DHL, en remplaçant simplement le lien légitime par un lien
malveillant. Les utilisateurs et les entreprises devraient également commencer à
se préparer à des attaques d'usurpation d'identité plus avancées ».

« Un pirate informatique pourrait mettre la main sur les e-mails internes de
quelqu'un en piratant toute personne qui a reçu un e-mail de cette personne.
Ensuite, il peut créer un style dans lequel cette personne a écrit et les
usurper, et faire des attaques par falsification d'identité », poursuit Andy
Patel. « Les États-nations pourraient également utiliser cette approche, en
utilisant l'IA pour générer des documents divulgués d'apparence réelle mais
complètement faux, à intégrer dans une copie binaire brute de données
divulguées. Il est presque impossible de prouver que ce n'en sont pas ».
D'autres attaques contre la réputation d'une entreprise peuvent inclure de faux
articles d'actualité, des communiqués de presse, des avis de clients, des
articles de blog, etc. Aujourd'hui, ceux-ci existent déjà, mais la création d'un
texte de haute qualité prend du temps et coûte cher. ChatGPT offre la
capacité aux attaquants de produire une variété de communications, dans tous les
styles différents, pour pousser n'importe quel récit qu'ils souhaitent. « Cela
ouvre tellement d'attaques intéressantes », déclare Andy Patel. « C'est une
course aux armements entre les capacités que des outils comme ChatGPT peuvent
apporter et ce que les organisations doivent faire pour s'assurer que leur
entreprise continue de fonctionner », indique quant à lui John Carey, directeur
général de la practice IT chez AArete. Basé au Royaume-Uni, John Carey affirme
que ce ne sont pas seulement les e-mails de phishing individuels qui deviendront
indiscernables des vrais, mais des sites web entiers. « La fidélité des sites
d'imitation va devenir beaucoup, beaucoup plus grande. Vous pourrez attirer plus
de gens vers votre hameçonnage, et surtout vers votre phishing ciblé »,
explique-t'il. Les sites web usurpés peuvent être utilisés pour recueillir les
informations d'identification des visiteurs, diffuser des informations erronées
ou fournir un support pour une identité usurpée. « Nous voyons certains de ces
nouveaux outils être utilisés pour créer des campagnes beaucoup plus élaborées
», poursuit John Carey.


LES STRATÉGIES ANTI-HAMEÇONNAGE À L'ÈRE DE L'IA

Dans ce contexte, les experts recommandent aux entreprises de revoir ou de
renforcer leur formation anti-phishing pour être prêtes pour les e-mails écrits
par l'IA et doper leurs mesures de sécurité techniques. Ceux-ci inclus : du
sandboxing pour les documents Word et autres pièces jointes afin de les éloigner
des réseaux d'entreprise, de l'inspection du trafic web via une passerelle web
sécurisée pour protéger les utilisateurs sur site et à distance. Mais aussi des
gateways sécurisées de messagerie. Il est aussi recommandé de vérifier les URL
pour les contenus malveillants ou les le typosquatting, de déployez des
protocoles de sécurité de messagerie tels que DMARC, DKIM et SPF, qui aident à
prévenir l'usurpation de domaine et la falsification de contenu. Sans oublier de
fournir un moyen simple de signaler les e-mails suspects.

Adopter une approche de sécurité en couches est toujours la meilleure, déclare
Aamir Lakhani, chercheur en cybersécurité en charge de l'activité FortiGuard
Labs de Fortinet. Et ce, non seulement pour se protéger contre le phishing, mais
aussi contre d'autres menaces basées sur l'IA. « Nous prévoyons que l'IA en tant
qu'arme persistera bien au-delà de cette année », prédit-il.

Une erreur dans l'article? Proposez-nous une correction

Article rédigé par
Maria Korolov, IDG NS (adapté par Dominique Filippone)


Cet article vous a plu? Partagez le !

 * 
 * 
   
 * 
   


NEWSLETTER LMI

Recevez notre newsletter comme plus de 50000 abonnés

OK



2 COMMENTAIRES

Commenter cet article en tant que visiteur ou connectez-vous

Renseignez votre email pour être prévenu d'un nouveau commentaire Pour tout
savoir sur la manière dont nous traitons vos données personnelles, consultez
notre Charte de Confidentialité.
Le code HTML est interdit dans les commentaires

 * Visiteur24776 • 19/01/2023 à 08h51
   
   Et si la meilleure arme contre le phishing généré par une IA était l'IA elle
   même ?
   
   J'ai demandé à chatGPT "Ce mail est-il un phishing", en copiant-collant un
   mail, l'IA a su me répondre que oui, et m'expliquer pourquoi.
   
   Integrer cette IA directement dans les moteurs d'analyse de mails permettrait
   facilement d'éliminer un très grand nombre de phishings.
   
   Signaler un abus
 * Visiteur24775 • 19/01/2023 à 08h24
   
   Voilà pourquoi Asimov a créé les trois lois de la robotique, si elle n'est
   pas intégrée dans une IA dès le début, elle va se retourner contre nous nous.
   Science fiction ?
   
   Signaler un abus


SUIVRE TOUTE L'ACTUALITÉ

NEWSLETTER

Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!

Je m'abonne




Le site le plus consulté par les informaticiens en France

LeMondeInformatique.fr est une marque de IT News Info, 1er groupe d'information
et de services dédié aux professionnels de l'informatique en France.

Suivez-nous sur les réseaux

 * 
 * 
 * 
 * 
 * 
 * 

 * Nous contacter
   
 * Mentions Légales
   
 * Charte de confidentialité
 * Conditions générales de vente
 * Paramètres de gestion de la confidentialité

Copyright © LeMondeInformatique.fr 1997-2023

Toute reproduction ou représentation intégrale ou partielle, par quelque procédé
que ce soit, des pages publiées sur ce site, faite sans l'autorisation de
l'éditeur ou du webmaster du site LeMondeInformatique.fr est illicite et
constitue une contrefaçon.

 * 
 * 
 * 
 * 
 *