Prévisions de Kaspersky

Deepfakes et IA marqueront l’année 2026

par Chiara Binder et traduction/adaptation ICTjournal

Selon Kaspersky, d’ici 2026, les deepfakes deviendront nettement plus faciles à produire et plus réalistes, notamment grâce à des progrès majeurs sur l’audio, brouillant toujours davantage la frontière entre contenus humains et générés par l’IA.

(Source: ArtemisDiana / stock.adobe.com)
(Source: ArtemisDiana / stock.adobe.com)

En 2026, distinguer le vrai du faux deviendra un défi quotidien. Non seulement les deepfakes gagneront en réalisme, tandis que les attaques fondées sur l’IA et les modèles ouverts menaceront de plus en plus les entreprises et les utilisateurs privés. Selon les prévisions de la société de cybersécurité Kaspersky, la situation devrait s’aggraver avec l’amélioration des modèles de langage et de l’IA générative.

Les deepfakes pour tous

Avec la diffusion croissante des deepfakes, leur diversité de formats augmente également. Les entreprises seraient ainsi amenées à former davantage leurs collaborateurs à ces risques. Les deepfakes prennent de plus en plus de place dans les priorités en matière de sécurité et, selon Kaspersky, il devient nécessaire de mettre en place des formations systématiques ainsi que des directives internes claires. Les consommatrices et consommateurs devraient eux aussi développer une meilleure conscience des contenus falsifiés et une meilleure compréhension de ces phénomènes.

Cependant, ce n'est pas seulement la qualité visuelle des deepfakes qui s'améliore, la qualité sonore devient également de plus en plus réaliste. Parallèlement, les outils de création gagnent en simplicité d’utilisation, permettant même à des non-spécialistes de produire des deepfakes de qualité moyenne. Kaspersky anticipe donc une hausse continue de la qualité globale et une utilisation accrue de ces technologies par les cybercriminels.

À ce jour, il n’existe pas de critères uniformes pour identifier de manière fiable les contenus générés par l’IA. Kaspersky s’attend dès lors à l’émergence de nouvelles initiatives techniques et réglementaires visant à résoudre cette problématique.
Les avancées technologiques accroissent aussi les risques d’abus

Les échanges en temps réel impliquant des deepfakes continuent de nécessiter des compétences techniques avancées, souligne le prestataire de cybersécurité. Une utilisation généralisée n’est donc pas attendue à court terme. En revanche, des attaques ciblées recourant à cette technologie sont jugées plausibles. Les techniques modernes accroissent par ailleurs le risque que ces falsifications paraissent particulièrement réalistes.

Selon les prévisions, les modèles d’IA ouverts rattrapent progressivement les systèmes fermés. Cette évolution accroît le potentiel de détournement: les solutions open source se rapprochent rapidement des modèles propriétaires en termes de fonctionnalités, sans toutefois offrir des mécanismes de contrôle et de protection équivalents. Les deux types de modèles peuvent ainsi être exploités à des fins malveillantes

Une frontière de plus en plus floue

L’IA étant déjà largement utilisée pour les courriels frauduleux, les sites de phishing ou encore les contenus de marque, les utilisatrices et utilisateurs se sont habitués aux contenus synthétiques. Les productions générées par l’IA apparaissent comme familières et «normales», ce qui complique la distinction entre contenus authentiques et falsifiés.

Selon Kaspersky, les cybercriminels exploiteraient désormais l’IA à toutes les étapes d’une attaque, de la préparation à la recherche de vulnérabilités. Dans le même temps, ils chercheraient à dissimuler l’usage de ces technologies afin de compliquer l’analyse des attaques.

L’IA transforme le travail des centres de sécurité

À l’avenir, l’IA devrait également soutenir les équipes des centres opérationnels de sécurité (SOC), notamment pour analyser les infrastructures, identifier des vulnérabilités ou rassembler des informations contextuelles utiles aux enquêtes. Cette évolution entraînerait une redistribution des tâches: les activités routinières, jusqu’ici effectuées manuellement, seraient prises en charge par l’IA, tandis que les équipes SOC se concentreraient sur la prise de décision à partir des informations traitées par ces systèmes. En outre, les outils de sécurité devraient de plus en plus être utilisables via le langage naturel.
 

Webcode
tTFSxkEz