GREYC
Laboratoire de mathématiques Nicolas Oresme


Séminaire Cryptologie & Sécurité
Contacts :
A venir :
Gestion autonome des services de sécurité dans l'Internet des objets

Résumé.

L’Internet des objets (IoT : Internet of Things) et ses applications sont devenus indispensables dans notre vie quotidienne. Cependant, la croissance rapide des systèmes IoT a engendré d’importants défis en matière de sécurité. De nombreux dispositifs IoT sont naturellement vulnérables en raison des contraintes de ressources telles que la capacité de traitement et l’autonomie de batterie limitées, ainsi que de l’absence de protocoles de sécurité standardisés. Par conséquent, la sécurisation des environnements IoT est devenue une priorité. Dans ce travail, nous proposons une architecture IoT autonome à trois couches composées des couches cloud, réseau et sensing afin de fournir des services de sécurité robustes entre les objets IoT et les passerelles de sécurité autonomes au sein de la couche sensing. De plus, nous spécifions un nouveau framework IoT qui utilise cette architecture IoT autonome tout en intégrant la cryptographie légère et le paradigme de l’Autonomic Computing pour permettre la gestion autonome de la confidentialité des données IoT. Ce framework utilise un modèle d’arbre de décision pour prédire l’algorithme de chiffrement léger le plus approprié en fonction de paramètres tels que l’énergie résiduelle et le type d’application. Le framework proposé est ensuite étendu pour garantir l’intégrité des objets IoT grâce à une nouvelle approche qui intègre l’attestation à distance (remote attestation). Notre approche utilise deux boucles de contrôle fermées MAPE-K : l’une permet de sélectionner les objets IoT et de déterminer les fonctions de hachage légères appropriées pour l’attestation, et l’autre permet d’exécuter le processus d’attestation. Ainsi, la première boucle de contrôle fermée MAPE-K comprend deux mécanismes : un modèle DBSCAN pour la sélection des objets IoT, suivi d’un système de logique floue pour déterminer la fonction de hachage légère optimale à utiliser pour l’attestation. La deuxième boucle de contrôle fermée MAPE-K gère l’attestation à distance pour vérifier l’intégrité des objets IoT en utilisant une fonction HMAC dynamique qui emploie des clés partagées et des fonctions de hachage légères qui changent fréquemment.

[06/05/25 | 14h | visio]
​Abdelhamid Garah
Vers un Apprentissage Fédéré Décentralisé, Fiable et Évolutif

Résumé.

L’apprentissage fédéré (FL) est un paradigme décentralisé permettant d'entraîner des modèles de machine learning sans partager les données brutes. Toutefois, il demeure vulnérable à diverses attaques, notamment les empoisonnements de données (data poisoning) et de modèles (model poisoning). Pour relever les défis de confiance, de confidentialité et de passage à l’échelle dans le FL décentralisé, nous proposons deux cadres complémentaires basés sur la blockchain : VerifBFL et AutoDFL.

VerifBFL introduit un système d’apprentissage fédéré vérifiable et respectueux de la vie privée, construit sur une blockchain permissionnée avec un consensus PBFT. Il exploite les zk-SNARKs récursifs (Nova), la confidentialité différentielle et le stockage hors chaîne via IPFS afin d’assurer une vérifiabilité de bout en bout sans recourir à des entités de confiance. Le système prend en charge deux types de preuves à divulgation nulle de connaissance (ZKP) : une preuve d'accuracy pour vérifier la justesse des modèles locaux, et une preuve d’agrégation pour certifier la validité de l’agrégation de type FedAvg. Les résultats expérimentaux démontrent la faisabilité de cette approche, avec des temps de génération et de vérification de preuves compatibles avec un déploiement sur blockchain.

En parallèle, AutoDFL vise à améliorer la scalabilité et l'efficacité du FL basé sur la blockchain. Il intègre les zk-Rollups, une solution de mise à l’échelle de type Layer-2, permettant de réduire considérablement la charge sur la chaîne tout en garantissant la sécurité. AutoDFL introduit également un système de réputation automatisé et équitable, incitant les participants à contribuer de manière honnête et efficace. Les évaluations expérimentales montrent qu’AutoDFL peut traiter plus de 3 000 tx/s tout en réduisant les coûts en gas par un facteur 20. Ensemble, VerifBFL et AutoDFL ouvrent la voie à un apprentissage fédéré sécurisé, vérifiable et évolutif dans des environnements entièrement décentralisés.

Codes: VerifBFL : https://github.com/Ayoub-46/VerifBFL AutoDFL : https://github.com/meryemmalakdif/AutoDFL

[07/05/25 | 10h | visio]
Cryptanalysis of LWE with side information

Résumé.

DDGR framework [DSDGR20] was introduced in Crypto 2020 as the first cryptanalysis framework that estimates the impact of some types of side information on the security of Learning with Errors (LWE). Side information can come from many sources either from the construction itself or from the implementation leakage. Some of them can be categorized into perfect hint, modular hint, approximating hint and short vector hint. DDGR examines the impact of these hints by gradually integrating them into the given LWE instance, constructing a new Short Vector Problem (SVP) instance that could be easier (or not) to solve via lattice reduction than the original LWE's SVP. In Asiacrypt 2023, May et al discovered the "Too many hints” regime [MN23] in which the LWE instances can be practically broken by LLL given a certain number of certain types of hint (for example, n/2 perfect hints with n being the dimension of LWE's secret). The successful attack in this regime is not predictable by DDGR's estimator. In this talk, I will explain this mystery which is related to that "random hint" and "non-random hint" have different impacts on lattice reduction.

[21/05/25 | 14h | S3-351]
NGUYEN Thi
TBA

Résumé.

TBA

[04/06/25 | 14h | S3-351]
Neily Sanon
Passé :
Partial Sums Meet FFT: Improved Attack on 6-roued AES

Résumé.

The partial sums cryptanalytic technique was introduced in 2000 by Ferguson et al., who used it to break 6-round AES with time complexity of $2^{52}$ S-box computations -- a record that has not been beaten ever since. In 2014, Todo and Aoki showed that for 6-round AES, partial sums can be replaced by a technique based on the Fast Fourier Transform (FFT), leading to an attack with a comparable complexity. In this paper we show that the partial sums technique can be combined with an FFT-based technique, to get the best of the two worlds. Using our combined technique, we obtain an attack on 6-round AES with complexity of about $2^{46.4}$ additions. We fully implemented the attack experimentally, along with the partial sums attack and the Todo-Aoki attack, and confirmed that our attack improves the best known attack on 6-round AES by a factor of more than 32. We expect that our technique can be used to significantly enhance numerous attacks that exploit the partial sums technique. To demonstrate this, we use our technique to improve the best known attack on 7-round Kuznyechik by a factor of more than 80, and to reduce the complexity of the best known attack on the full MISTY1 from $2^{69.5}$ to $2^{67}$.

[05/05/25 | 14h | S3-351]
​Victor Mollimard
Lattice-based solving strategy using Coppersmith's techniques and its applications

Résumé.

Lattice-based cryptanalysis using Coppersmith's techniques has emerged as a powerful approach to compromising the security of several cryptographic algorithms under specific conditions. This talk will provide an exploration of the lattice-based solving strategy, which leverages lattice basis reduction to find small roots of polynomial equations modulo an integer. This method is then used for examining its practical applications in RSA cryptanalysis, including small private key attacks, factoring with known bits attacks, etc. The talk will also discuss recent advancements in lattice-based cryptanalysis, such as automated analysis and optimized attack bounds.

[30/04/25 | 14h | S3-351]
Approche multimodale pour la génération de noms de fonctions à partir du code binaire

Résumé.

La compréhension du code binaire est cruciale en rétro-ingénierie. Usuellement, des bases de fonctions servent à identifier dans un binaire les fonctions proches de références connues. Cependant, souvent les projections sous-jacentes traitent chaque code source séparément. En revanche, les modèles de langage récents permettent de projeter le code binaire et sa description textuelle dans un même espace vectoriel, et d'associer des codes binaires ayant des fonctionnalités proches.

Plus simplement, il est aussi possible de générer une description sémantique ou un nom de fonction directement, sans rechercher une fonction proche. Plusieurs méthodes reposent sur des architectures de type transformer, et visent à traduire du langage binaire vers le langage naturel. Notre nouvelle méthode, BLens, inspirée des architectures multimodales pour le sous-titrage d’images, utilise différentes projections de l’état de l'art et les découpe en morceaux pour améliorer la génération des noms. Après un pré-entraînement basé sur une double tâche multimodale (« contrastive captioning »), un nouveau décodeur est ensuite ajouté pour la génération des noms.

Nous montrerons que cette approche surpasse les méthodes existantes, y compris lors de la nomination de fonctions inédites. Nous discuterons aussi des défis liés à l’évaluation des résultats et à la généralisation, face à la spécificité ou la réutilisation des codes sources. Enfin, nous présenterons des pistes futures, comme l’intégration de modules capables de détecter automatiquement des types ou de suggérer des noms de variables, pour des annotations complètes et adaptées à l’usage des spécialistes.

[29/04/25 | 14h | S3-351]
Combinatorial Attacks On The Decoding Problem

Résumé.

The decoding problem is fundamental in post-quantum cryptography. It can be broadly described as essentially solving a linear system with a non-linear constraint on the solution. Phrased this way, the problem applies to both code-based and lattice-based cryptography. For example, the linear system may be defined over FF_q, with the non-linear constraint being a condition on the Hamming weight of the solution (McEliece, BIKE, HQC, Wave, SDitH...) or even a condition on the subgroup in which the solution resides (CROSS). The system may also be defined over FF_q^m, with the non-linear constraint being a condition on the rank of the vector space spanned by the solution vectors (Mirath, Ryde). In lattice-based cryptography, the system is generally defined over ZZ_q, with the non-linear constraint being a condition on the Euclidean length of the solution (Kyber, Falcon, Dilithium, Hawk...). The list above is far from exhaustive and can extend to other areas such as Fully Homomorphic Encryption (FHE) or the blind code recognition problem (reverse of telecomunication).

Combinatorial techniques for solving the decoding problem (in both codes and lattices) can be classified into two categories: primal attacks and dual attacks. Primal attacks aim to recover a set of information about the solution, essentially a compressed description of the solution. Exhaustive search can then be accelerated using techniques like the Birthday Paradox (collision search). More recently, techniques based on nearest-neighbor searches have emerged and significantly sped up primal attacks. The nearest-neighbor problem involves finding close pairs in a list. The notion of closeness can be extended to adapt to the non-linear constraint of the original decoding problem. However, this requires adapting known techniques to these different variants of the nearest-neighbor problem.

It turns out that primal decoding techniques are often more effective when there are few equations in the system relative to the number of unknowns. Therefore, when the number of equations is close to the number of unknowns, is it possible to reduce the problem to another decoding problem where the number of equations is smaller? One approach to this is to dualize the decoding problem: instead of searching for a solution in a specific subspace, could we reduce the problem to finding a solution in the orthogonal/dual subspace? Some recent attacks, known as dual attacks, offer an initial attempt at such a reduction. However, dual attacks are a topic of controversy. In particular, the recent dual attack by Matzov, which claims to significantly lower the security level of Kyber, a lattice-based cryptosystem currently being standardized by NIST, has not been widely accepted. The analysis behind this attack relies on a set of assumptions that, in certain scenarios, have been shown to contradict established theorems or well-tested heuristics. Nonetheless, we present new techniques for analyzing dual attacks. Specifically, we avoid the same independence assumption made in Matzov’s work, allowing us to reassess the complexity of dual attacks on Kyber and demonstrate that its security levels fall below the NIST requirements.

[16/04/25 | 14h | S3-351]
A la recherche des signes complotistes en ligne: exploration et expérimentation par la textométrie.

Résumé.

On se situera à l’intersection des sciences de données et des sciences cognitives pour qualifier formellement les rhétoriques et représentations mobilisées dans les commentaires en ligne sur la vaccination. Le corpus (135 620 textes, 5 481 450 occurrences et 53 835 formes lexicales) fait d'abord l’objet d’une classification hiérarchique descendante (CDH). Pour l’interpréter, on mobilise un modèle de traitement sociocognitif qui caractérise l’orientation descriptive (valeur informationnelle) versus évaluative (valeur sociale) des commentaires et la mise en place de biais cognitifs. On a également recours à des modèles de langage (LLM) pour tenter de qualifier les classes lexicales et d'identifier les propos complotistes. Dans un deuxième temps, une approche plus expérimentale analyse la bande vocale de Hold-Up : Retour sur un chaos (2020) et effectue un merge de classes des deux CDH et une analyse des correspondances lexicales (AFC). On montre ainsi quatre formes argumentatives différentes dont l'une ouvre la possibilité d’une radicalisation complotiste.

[26/03/25 | 14h | S3-351]
Finite blocklength secrecy analysis of polar and Reed-Muller codes in binary erasure wiretap channels

Résumé.

Physical layer security aims to exploit the randomness of noisy channels in order to enhance security through coding and signal processing techniques. Unlike cryptography, it does not place any limitations on the adversary's computational power, but relies on an asymmetry in the channel quality between the legitimate users and the adversary. In this talk, we focus on the wiretap channel model, where a legitimate transmitter and receiver communicate in the presence of an eavesdropper who observes a degraded version of the receiver's outputs. For this model, secrecy can be measured in terms of mutual information leakage, or alternatively in terms of the average variational distance between output distributions corresponding to different confidential messages.

Motivated by IoT applications that require short packets or low latency, we focus on the performance of wiretap codes in finite blocklength. We consider a simple channel model where the main channel is noiseless and the eavesdropper’s channel is a binary erasure channel, and provide lower bounds for the achievable secrecy rates of polar and Reed-Muller codes. We show that under a total variation secrecy metric, Reed-Muller codes can achieve secrecy rates very close to the optimal second order coding rates.

[05/03/25 | 14h | S3-351]
The last decade of the RSA cryptosystem

Résumé.

NIST recently released a publication related to the transition to Post-Quantum Cryptography which specifies that most of the public key classical cryptosystems, especially RSA will be officially deprecated by 2030 and banned after 2035. In this talk, I will review the limits of the main cryptanalytical attacks on RSA, and present two new variants of RSA based on the cubic Pell curve.

[05/02/25 | 14h | S3-351]
LAB404 et investigation numérique dans le métavers

Résumé.

Les cybercriminels, qu’il s’agisse de fraudeurs ou d’auteurs d’intimidations et de menaces en ligne, adaptent constamment leurs méthodes aux évolutions technologiques. Les environnements virtuels, ou « métavers », illustrent particulièrement bien cette dynamique en ouvrant la voie à de nouvelles formes d’escroqueries et de comportements malveillants. Ces espaces numériques combinant interactions sociales et transactions dématérialisées posent des défis inédits en matière de sécurité et d’investigation.

Cette présentation se propose d’analyser les enjeux liés aux environnements virtuels, en mettant l’accent sur l’exploitation des traces numériques pour identifier et contrer ces activités criminelles. Nous explorerons les opportunités offertes par l’analyse des données issues des casques de réalité virtuelle et des appareils connectés, ainsi que celles disponibles auprès des fournisseurs de services, des applications tierces et des plateformes de cryptomonnaies. Des cas concrets permettront d’illustrer les mécanismes sous-jacents aux fraudes et aux actes d’intimidation en ligne, tout en mettant en avant des pistes méthodologiques adaptées aux professionnels de l’investigation numérique et de la cybersécurité.

[22/01/25 | 14h | S3-351]
Archives :   2010   2011   2012   2013   2014   2015   2016   2017   2018   2019   2020   2021   2022   2023   2024