ARTICLES
Tous les articles publiés sur Les Joies du Code

Challenge Top Code MyDigitalSchool : je vous fais gagner une souris MX Master 3S, retrouvez-moi en live !

Challenge Top Code MyDigitalSchool 2025

Rendez-vous ce mardi 15 avril pour le Challenge Top Code et Capture the Flag avec MyDigitalSchool !

J'ai le plaisir d'animer pour la troisième année consécutive le Challenge Top Code organisé par MyDigitalSchool, ainsi que leur nouveau concours de cybersécurité Capture the Flag.

L'événement aura lieu ce mardi 15 avril de 18h à 20h, et je serai en direct depuis leur école d'Angers pour accompagner les participants tout au long de ces défis.

Je participe au challenge Top Code 🏆

Lire l'article

Hackathon grandeur nature : codez au Parc des Princes, 150 000 dollars à la clé

Participez au hackathon Hacking Paris de Chiliz, du 11 au 13 juillet 2025 au Parc des Princes

Hackathon Hacking Paris 2025 — Croyez-moi, des hackathons, j’en ai vu passer. Mais DANS UN STADE et qui plus est au Parc des Princes, permettez-moi de vous le dire : c’est du jamais vu.

# En partenariat avec Chiliz

À vos agendas : du 11 au 13 juillet 2025, Chiliz, qui propose aux fans de sport et d'e-sport de se rapprocher de leurs clubs et athlètes préférés, organise un hackathon grandeur nature dans l’antre historique du PSG.

Hacking Paris est un événement 100% gratuit, pensé pour les développeurs et ceux qui s’intéressent à la blockchain, avec pour objectif de donner vie à vos projets pour faire évoluer l’écosystème.

Je participe au hackathon 🤩

Lire l'article

Meta soupçonné d'avoir triché pour faire briller son nouveau modèle Llama 4 dans les benchmarks d'IA

Un lama qui se cache derrière une clôture

La main dans le sac ? — Le lancement de la famille de nouveaux modèles IA Llama 4 par Meta ce week-end n'a pas manqué de faire du bruit dans les sphères tech.

Présentés comme des poids lourds de l'intelligence artificielle, les modèles Scout et Maverick de la famille Llama 4 ont été annoncés comme les premiers à intégrer l’approche Mixture of Experts (MoE) — une technique d'architecture qui permet d’augmenter la puissance d’un modèle tout en limitant les ressources utilisées à chaque requête.

Mais au-delà des performances techniques affichées, une controverse a rapidement éclaté : Meta aurait soumis une version non publique de Llama 4 sur la plateforme de benchmark LMArena, afin de maximiser son score et sa position au classement.

Lire l'article