GREYC
Laboratoire de mathématiques Nicolas Oresme


Séminaire Cryptologie & Sécurité
Contacts :
A venir :
Architectures sécurisées de l'IoT basées sur l'intelligence artificielle

Résumé.

L'Internet des Objets (IoT) est en pleine expansion, reliant un nombre croissant de dispositifs intelligents. Cependant, cette interconnexion augmente également les vulnérabilités face aux cybermenaces. Dans ce contexte, les méthodes d'intelligence artificielle jouent un rôle crucial dans le renforcement de la sécurité dans les architectures IoT. L'exposé abordera les principales menaces pesant sur des différents cas d’usage d’architecture IoT telles que les attaques par poisoning, le piratage de données et les intrusions dans les réseaux. Nous explorerons comment l'IA, notamment à travers l'apprentissage fédéré et l'apprentissage profond, permet de détecter des comportements anormaux et de prédire des attaques potentielles en analysant les données en temps réel. Nous discuterons également des techniques de sécurité basées sur l'IA, comme les systèmes de détection d'intrusion (IDS) et les SOC, qui améliorent la résilience des systèmes IoT.

[15 octobre 2024 | 15h | F-200]
Passé :
Synthèse de mes activités sur l’Apprentissage multi-modale et l’apprentissage frugal

Résumé.

Dans une première partie, je présenterai différentes approches pour apprendre des réseaux de neurones profonds en présent de plusieurs modalités. La multimodalité est un phénomène que nous expérimentons quotidiennement. Le cerveau humain traite simultanément des informations provenant de multiples sources sensorielles, telles que la vue, l’ouïe, le toucher, l’odorat et le goût. Cette interaction permet une compréhension plus riche et nuancée de notre environnement. Cependant, l’apprentissage machine repose aujourd’hui, principalement sur un traitement unimodal de l’information, limitant ainsi la capacité des machines à comprendre pleinement notre monde. Les méthodes de fusion multimodale sont de plus en plus étudiées pour exploiter la complémentarité des modalités. Je présenterai différentes approches pour apprendre des réseaux de neurones profonds en présence de plusieurs modalités. Je discuterai des problématiques et des stratégies que j’ai étudiées sur ce sujet.

Dans un second temps, j’aborderai la question de la frugalité en apprentissage machine. Depuis environ une décennie, les progrès dans le domaine des architectures de réseaux de neurones ont conduit à des performances exceptionnelles dans de nombreuses tâches. Cependant, l’apprentissage de ces réseaux devient de plus en plus ardu, nécessitant des quantités considérables de données et de puissance de calcul. Les architectures les plus récentes exigent des ensembles d’entraînement composés de millions d’exemples et d’importantes quantités de ressources de calcul, restreignant ainsi le développement et l’exploitation de ces technologies à des grandes acteurs. Il est crucial de proposer des solutions plus économe et abordable pour permettre à tous de bénéficier des ces technologies. Pour répondre à ces défis, il est crucial de développer des approches qui nécessitent peu de données et peu de ressources de calcul. Je présenterai quelques solutions que j’ai étudié pour répondre à ces enjeux.

[10 octobre 2024 | 15h | S3-351]
Untargeted Near-collision Attacks on 2FA Biometric Systems

Résumé.

Un système de reconnaissance biométrique peut fonctionner en mode vérification, où le système valide l'identité revendiquée par un utilisateur en comparant le modèle fourni avec le modèle enregistré. Les schémas de transformation biométrique produisent généralement des modèles binaires qui sont mieux traités par des schémas cryptographiques, et la comparaison se base sur une distance qui divulgue des informations sur les similarités entre deux modèles biométriques. Les taux de fausses acceptations (FAR) et de fausses rejets (FRR), déterminés expérimentalement par l'ajustement des seuils de reconnaissance, définissent la précision de la reconnaissance et donc la sécurité du système. À notre connaissance, peu de travaux fournissent un traitement formel de la sécurité sous un minimum de fuite d'information, c'est-à-dire le résultat binaire d'une comparaison avec un seuil. Dans cet article, nous nous appuyons sur la modélisation probabiliste pour quantifier la robustesse des modèles binaires issus de la fusion d'un token pseudo-aléatoire stocké avec une donnée biométrique, où ces deux facteurs sont fusionnés pour créer un token flou. Nous étudions l'influence de la taille des modèles, de la taille de la base de données et du seuil sur la probabilité d'une near-collision. Nous mettons en évidence plusieurs attaques non ciblées en considérant des adversaires naïfs et adaptatifs. De manière intéressante, ces attaques peuvent être lancées en ligne et hors ligne en mode vérification. Nous discutons du choix des paramètres à travers les attaques génériques présentées, en soulignant que ces attaques ont des implications significatives pour ces systèmes biométriques.

[29 mai 2024 | 14h | S3-351]
A two level security watermarking/encryption schema to ensure the protection of medical images

Résumé.

La protection des images médicales est d'une importance cruciale pour garantir la confidentialité des informations des patients et la sécurité des données médicales. Dans cette présentation, nous aborderons un schéma de tatouage numérique à deux niveaux, combinant tatouage et cryptage, conçu pour sécuriser les images médicales sensibles. Le schéma proposé repose sur deux niveaux de sécurité : le tatouage numérique des images médicales, suivi de leur cryptage pour renforcer la confidentialité des données. Cette approche vise à empêcher toute altération non autorisée des images tout en protégeant leur contenu contre les accès non autorisés. Nous discuterons des principaux aspects techniques du schéma, y compris les méthodes de tatouage numérique utilisées, les techniques de cryptage employées, ainsi que les avantages et les limites de cette approche. De plus, nous présenterons les résultats de nos expérimentations pour évaluer l'efficacité et la robustesse du schéma proposé. En conclusion, cette présentation mettra en évidence l'importance de garantir la sécurité et la confidentialité des images médicales à l'heure où la numérisation des dossiers médicaux devient de plus en plus répandue, et soulignera les contributions significatives de notre recherche dans ce domaine critique.

[11 avril 2024 | 14h30 | Visio]
La Réidentification des personnes basées sur la démarche en,présence de facteurs covariants

Résumé.

La biométrie, et en particulier la reconnaissance de la démarche, joue un rôle crucial dans les applications de vidéosurveillance. Contrairement à d'autres méthodes de reconnaissance biométrique qui nécessitent une proximité physique comme le visage. La démarche peut être capturée et analysée à distance, offrant ainsi une solution non intrusive et moins contraignante pour la réidentification des personnes dans des scénarios de vidéosurveillance. L'article présenté propose une approche novatrice qui exploite les caractéristiques distinctives de la démarche tout en surmontant les défis associés à la variabilité des facteurs sémantiques tels que les vêtements et les sacs portés. En adoptant une sélection dynamique des parties humaines pertinentes, cette méthode améliore la précision et la robustesse de la réidentification des personnes basées sur la démarche, et peut être généralisée pour prendre en compte différents angles de vue. Cette avancée ouvre la voie à des applications de vidéosurveillance plus efficaces et fiables, en exploitant pleinement le potentiel de la biométrie de la démarche.

[10 avril 2024 | 14h | Visio]
Singular value decomposition in computer vision: applications in video surveillance and image enhancement.

Résumé.

La décomposition en valeurs singulières (SVD) est une technique de décomposition de matrices largement utilisée dans les applications de vision par ordinateur et d'apprentissage automatique. Traditionnellement, la SVD est fréquemment employée applications dans divers autres domaines, notamment la réduction de dimension, la compression d'image, le débruitage et le traitement du signal. Cependant, son potentiel pour l'extraction efficace de caractéristiques à partir d'images reste largement sous-exploité. De plus, les sous-espaces estimés par la SVD offrent des espaces d'apprentissage alternatifs aux espaces de couleur où les modèles peuvent apprendre des caractéristiques plus discriminantes et invariantes à la scène. Cette présentation vise à : 1. Présenter brièvement les cadres proposés où la SVD a été utilisée comme robuste algorithme de séparation de sources dans diverses tâches de vision par ordinateur, notamment dans la surveillance vidéo. 2. Présenter les travaux où la SVD est intégrée dans des modèles d'apprentissage profond pour améliorer leur capacité de génération et de généralisation.

[4 avril 2024 | 14h | Campus II - Salle S3-351]
Récupération d'Images par le Contenu : Intégration de Techniques Avancées pour Améliorer la Précision et la Localisation

Résumé.

Mes recherches sur la récupération d'images basée sur le contenu (CBIR) visent à améliorer les stratégies existantes en utilisant des approches innovantes et diversifiées. J'ai exploré plusieurs axes pour enrichir les méthodes CBIR, notamment en intégrant des techniques avancées, notamment le deep learning (segmentation sémantique). De plus, j'ai étudié la localisation d'images dans des environnements 3D, en proposant des méthodes robustes par l'intégration des informations géométriques dans les descripteurs visuels. Ces approches ont permis d'améliorer considérablement la précision de la localisation, en particulier dans des scénarios complexes où une identification précise est cruciale.

[3 avril 2024 | 14h | Visio]
Sécurisation des données médicales en télémédecine par tatouage numérique

Résumé.

Sécurisation des données médicales en télémédecine par tatouage numérique La préservation de la confidentialité des données médicales est fondamentale pour établir et maintenir une relation de confiance entre les patients et les professionnels de la santé, étant donné la nature sensible des informations qu'elles renferment. Le tatouage numérique émerge comme une solution intéressante pour sécuriser ces données en les intégrant dans des fichiers multimédias, mais il est crucial de préserver leur intégrité, notamment pour les images diagnostiques, afin d'assurer la fiabilité des diagnostics et la sécurité des patients. Cela nécessite la mise en place de mesures de sécurité strictes et une expertise technique approfondie pour garantir que le processus de tatouage n'altère pas le contenu diagnostique des images médicales.

Au cours des six dernières années, nos travaux de recherche se sont concentrés sur le tatouage des données médicales, motivés par les défis inhérents à la préservation de la confidentialité et de l'intégrité de ces informations sensibles. Nous avons exploré diverses méthodes visant à dissimuler efficacement ces données dans des fichiers multimédias, tout en assurant leur imperceptibilité et leur robustesse. Nos recherches ont abouti à plusieurs approches de tatouage numérique pour différents types de fichiers médicaux, incluant des fichiers audios, des ECG et des images. Ces approches, qu'elles opèrent dans le domaine spatial ou dans le domaine des transformations, partagent un objectif commun : intégrer le maximum d'informations tout en minimisant les altérations et en garantissant la robustesse du tatouage.

Nous tenterons à travers cette présentation de mettre en lumière six travaux de recherche récents dédiés au tatouage des données médicales, visant à assurer la sécurité et l'intégrité des informations médicales dans le cadre de la télémédecine. Ces approches englobent diverses méthodes, allant de l'utilisation de transformations d'ondelettes pour les images médicales à l'intégration de filigranes dans les signaux ECG et les fichiers audio, en passant par des techniques de cryptage et de compression pour renforcer la sécurité.

[3 avril 2024 | 11h | Visio]
Diagonally dominant matrices in cryptography

Résumé.

Euclidean lattices are among the most promising objects for building a post-quantum cryptography, i.e. constructions that would resist the power of large scale quantum computers. For efficiency reasons, most constructions use lattices enjoying a strong algebraic structure, and can be interpreted as constructions over polynomials with rational coefficients. However, it is still unknown to this date to what extent this additional structure can be used to attack those cryptosystems. Thus, studying more generic lattices is still an important challenge for future cryptography. Plantard et al. (2016) submitted a scheme called DRS to the NIST process aiming at standardising post-quantum cryptography, based on diagonally dominant matrices. However, it suffered a different learning attack from Ducas and Yu (2017), lowering the security estimates by at least 30 bits.

In this talk, I will first give some background on Euclidean lattices and their use in cryptography. Then I will describe GGH-like schemes and statistical attacks known on these constructions. Finally I will present a recent joint work with T. Plantard and A. Sipasseuth submitted to PQCrypto 2024. We study diagonally dominant matrices (as in the DRS scheme) and study their use in cryptography. We propose an encryption scheme based on new algorithmic results on this type of matrices and study potential patches to the attack of Ducas and Yu.

[20 mars 2024 | 14h | Campus II - Salle S3-351]
Beyond Pixels and 3D point Clouds: Exploring Deep Learning for Semantic Image Segmentation and 3D Point Cloud Quality Assessment

Résumé.

In this seminar, I will discuss some of our contributions centered around deep learning, specifically addressing two computer vision tasks. The first task will be on semantic image segmentation, a task aiming to assign a category label to each pixel in input images. While deep learning methods have demonstrated impressive performance in semantic segmentation, their computationally intensive nature poses challenges for deployment on resource-limited devices. To overcome this weakness, various methods, including Knowledge Distillation (KD), have been proposed. KD involves training a compacted neural network called student under the supervision of a heavy one called teacher. The challenge is to find, for a student network, a better tradeoff between the segmentation quality and its efficiency. In this context, I will present some of our proposed KD methods that leverage self-attention principles to capture contextual dependencies in both spatial and channel dimensions. For the second task, it concerns 3D point cloud quality assessment (PCQA). Recently, PC is considered one of the most widely used data for digital representation to model 3D realistic content in various applications. During the processing pipeline (acquisition, representation, compression, and rendering), various degradation may appear in PCs which affect its perceived visual quality. Consequently, it is essential to develop effective methods that accurately assess the quality of PCs and preserve the quality of the user experience. Unlike 2D images, PCs are unordered and unstructured, posing a challenge for direct application of convolutional neural networks using discrete convolutions. To circumvent this limitation, I will discuss some of our proposed PCQA metrics categorized into projection-based and point-based methods. On the other hand, I will present some applications of knowledge distillation and quality assessment in cybersecurity.

[7 février 2024 | 14h | Campus II - Salle S3-351]
Archives :   2010   2011   2012   2013   2014   2015   2016   2017   2018   2019   2020   2021   2022   2023