Page de couverture de Playlist Tech : les meilleurs podcasts technologie

Playlist Tech : les meilleurs podcasts technologie

Playlist Tech : les meilleurs podcasts technologie

Auteur(s): Acast France
Écouter gratuitement

À propos de cet audio

Bienvenue dans notre playlist dédiée aux passionnés de technologie !

Plongez dans l’univers de l’innovation avec notre sélection de podcasts explorant les dernières tendances, les avancées et les défis du monde de la Tech. Que vous soyez un professionnel du secteur ou juste avide de connaissances, cette playlist saura vous mettre la puce (électronique) à l'oreille.

Suiviez les discussions sur l’intelligence artificielle, la cybersécurité, les gadgets de demain et les stratégies des géants du numérique. Ces podcasts vous offrent un accès privilégié aux réflexions des experts, des entrepreneurs et des chercheurs de renom qui façonnent le futur de notre monde connecté.

La Playlist Tech est conçue pour être à la fois éducative et inspirante, vous permettant de rester informé des évolutions rapides du secteur technologique tout en nourrissant votre curiosité. Abonnez-nous pour un voyage passionnant à travers l’univers tech, où chaque épisode est une fenêtre ouverte sur l’avenir.

Avec cette playlist, l'actu Tech n’aura plus de secrets pour vous !

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Acast France
Politique Science
Épisodes
  • Choses à Savoir TECH - Le MIT créé une mémoire « infinie » ?
    Feb 3 2026

    On a tous déjà vu ça avec les intelligences artificielles : plus le texte est long, plus le modèle perd le fil. Au bout de quelques milliers de mots, la mémoire sature, le contexte se brouille, et les réponses deviennent approximatives. Pour les chercheurs du MIT, c’est un vrai plafond de verre. Leur solution tient en trois lettres : RLM, pour Recursive Language Model. L’idée est simple mais maligne. Plutôt que de charger un document entier dans la mémoire du modèle — ce qui l’étouffe — le texte reste stocké à l’extérieur. Le système ne transmet au modèle que les fragments utiles, au fur et à mesure. Un peu comme si l’IA feuilletait un énorme classeur au lieu d’essayer de tout mémoriser d’un coup.


    Concrètement, le RLM reçoit d’abord une vue d’ensemble : nombre de sections, taille du document, structure générale. Ensuite, il génère du code pour aller chercher précisément les passages pertinents, les analyser un par un, puis assembler la réponse finale. Résultat : il garde le contexte global sans nécessiter de réentraînement. Les tests sont parlants. Sur des documents gigantesques, entre 6 et 11 millions de jetons, le RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues sur le benchmark BrowseComp-Plus. Le modèle standard, lui, n’a rien retrouvé. Sur des tâches de raisonnement complexe, il passe de presque zéro à 58 % de bonnes réponses. Et pour l’analyse de code, les performances doublent, de 24 % à 62 %.


    Le système repose sur deux briques : un « modèle racine », chargé de planifier et d’orchestrer la recherche, et un « modèle travailleur », plus léger, qui traite chaque extrait. Alex Zhang, co-auteur au MIT CSAIL, compare ça à un programmeur qui ouvre un énorme fichier morceau par morceau pour éviter de faire planter son ordinateur. Compatible avec des techniques comme le RAG, le RLM peut s’intégrer sans changer l’interface habituelle. Et bonne nouvelle : le code est déjà disponible sur GitHub.


    Github

    Étude d'Alex Zhang

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    2 min
  • Choses à Savoir TECH VERTE - Une puce plus rapide et moins énergivore signée du MIT ?
    Feb 3 2026

    Et si la prochaine révolution de l’intelligence artificielle ne venait pas d’un nouvel algorithme… mais d’une puce électronique repensée de fond en comble ? Au MIT, des ingénieurs viennent de présenter une architecture qui pourrait changer la donne. Leur idée : empiler directement les composants d’une puce les uns sur les autres, plutôt que de les étaler côte à côte. Un détail en apparence, mais qui bouleverse tout.


    Jusqu’ici, la partie chargée des calculs et celle qui stocke les données étaient physiquement séparées. Résultat : les informations passaient leur temps à voyager d’un point à l’autre du circuit, consommant du temps… et surtout beaucoup d’énergie. En rapprochant ces deux fonctions, les chercheurs réduisent drastiquement ces allers-retours. Les échanges deviennent plus rapides et nettement moins gourmands en électricité. Un enjeu crucial à l’heure où l’IA explose. Pour y parvenir, l’équipe a mis au point un composant hybride : un transistor à mémoire. Autrement dit, un seul élément capable à la fois de calculer et de conserver des données. À l’échelle nanométrique, ce dispositif présente très peu de défauts électriques, ce qui améliore à la fois la vitesse d’exécution et l’efficacité énergétique, selon les chercheurs.


    Ce type d’innovation arrive au bon moment. Les applications d’apprentissage profond et de vision artificielle se multiplient, et les centres de données engloutissent toujours plus d’électricité. L’Agence internationale de l’énergie estime même que leur demande pourrait presque doubler d’ici 2030. Or, une grande partie de cette consommation ne sert pas à calculer, mais simplement à déplacer des données à l’intérieur des puces. « Nous devons absolument réduire l’énergie utilisée par l’IA, ce modèle n’est pas soutenable », rappelle Yanjie Shao, auteur principal de l’étude. Techniquement, les chercheurs ont utilisé de l’oxyde d’indium, un matériau qui peut être déposé à basse température sans abîmer les autres couches. Ils y ont ajouté une fine mémoire ferroélectrique. Le transistor change d’état en dix nanosecondes et fonctionne à une tension plus faible que les technologies actuelles. Pour l’instant, le système n’a été testé que sur prototype. Mais l’intégration dans de vraies puces semble désormais à portée de main.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    2 min
  • Le rendez-vous Tech - RDV Tech - Openclaw c’est un majordome, il connait la couleur de votre slip – RDV Tech
    Feb 3 2026

    Au programme :

    La folie OpenClaw: Jarvis dans votre maison

    Musk consolide son empire: SpaceX fusionne avec xAI

    Résultats trimestriels: les infos intéressantes

    Le reste de l’actualité


    Infos :

    Animé par Patrick Beja (Bluesky, Instagram, Twitter, TikTok).

    Co-animé par Jérôme Keinborg (Bluesky).

    Co-animé par Cédric de Luca (Bluesky).

    Co-animé par Korben (site)

    Produit par Patrick Beja (LinkedIn) et Fanny Cohen Moreau (LinkedIn).

    Musique libre de droit par Daniel Beja


    Le Rendez-vous Tech épisode 651 – Openclaw c’est un majordome, il connait la couleur de votre slip – Openclaw, SpaceX & xAI, résultats Q3, On This Day…

    ---

    Liens :


    🎧 L’Actu Tech (podcast daily): NotPatrick.com/#lactutech

    😎 Soutien sur Patreon : Patreon.com/RDVTech

    🤗 Communauté Discord : NotPatrick.com/discord


    Par écrit :

    📰 Newsletter : NotPatrick.com/newsletter

    📰 Archives NL: NotPatrick.com/archivenl

    📢 WhatsApp : NotPatrick.com/whatsapp

    🐤 Veille Twitter : Twitter.com/RdvTech


    En vidéo :

    📹 Live : Twitch.tv/NotPatrick

    📺 VOD : YouTube.com/NotPatrickPodcasts

    📱 TikTok : Tiktok.com/@NotNotPatrick


    💁 Tous les liens : NotPatrick.com

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    1 h et 19 min
Pas encore de commentaire