OFFRE D'UNE DURÉE LIMITÉE. Obtenez 3 mois à 0,99 $/mois. Profiter de l'offre.
Page de couverture de CervellAi (es)

CervellAi (es)

CervellAi (es)

Auteur(s): Carlos Andrés Morales Machuca
Écouter gratuitement

À propos de cet audio

CervellAi es un podcast donde la inteligencia artificial se encuentra con la intuición humana. Presentado por Carlos Andrés Morales Machuca, cada episodio explora conceptos clave como embeddings, redes neuronales y ética en la IA—haciendo que las ideas complejas sean accesibles para mentes curiosas. Ya seas profesional del sector tecnológico o simplemente tengas curiosidad por la IA, CervellAi conecta la innovación con el impacto y la comprensión.

Carlos Andrés Morales Machuca
Épisodes
  • 1 - 03 GANs: El Juego Minimax de la IA – De Falsificadores a Creadores de Realidad (Retos y Genialidad)
    Oct 26 2025

    Las Redes Generativas Adversarias (GAN) son un tipo de algoritmo de aprendizaje automático que usa un enfoque de aprendizaje adversarial. Imagínate un falsificador y la policía jugando un juego de gato y ratón. Eso es básicamente lo que pasa con las GAN: dos partes, un generador y un discriminador, compiten entre sí.

    La fuente de YouTube de DeepBean explica este concepto de manera sencilla usando esta analogía. También habla de la modelización generativa y cómo las GAN le entran al problema de las constantes de normalización intratables. Además, explican la función de pérdida que se usa para entrenar las GAN y cómo se relaciona con el juego de suma cero o minimax. También mencionan algunos problemas comunes que pueden surgir al entrenar las GAN, como el colapso de modo y los gradientes que se desvanecen.

    Por otro lado, la fuente de IBM Technology también describe la naturaleza adversarial de las GAN. Ellos destacan cómo se usan las GAN para generar imágenes y también mencionan otros casos de uso, como la predicción de fotogramas de video y la mejora de imágenes.

    Voir plus Voir moins
    19 min
  • 1 - 02 El Secreto para Desterrar las Alucinaciones de la IA
    Oct 18 2025

    El material fuente, un extracto de una transcripción del video de IBM Technology titulado "What is Retrieval-Augmented Generation (RAG)?", explica un marco diseñado para mejorar la precisión y actualidad de los modelos de lenguaje grandes (LLMs). Marina Danilevsky, científica investigadora de IBM Research, describe cómo los LLMs a menudo presentan desafíos como proporcionar información desactualizada o carecer de fuentes para sus respuestas, lo que puede llevar a respuestas incorrectas o alucinaciones. El marco RAGaborda estos problemas integrando un almacén de contenido al que el LLM accede primero para recuperar información relevante en respuesta a la consulta de un usuario. Este proceso de recuperación aumentadagarantiza que el modelo genere respuestas basadas en datos actualizados y pueda proporcionar evidencia de sus afirmaciones.

    Voir plus Voir moins
    16 min
  • 1 - 01 El mapa secreto de la IA para entender el lenguaje.
    Oct 11 2025

    Aquí compartimos una visión general de las incrustaciones de palabras o word embeddings, explicando que son representaciones numéricas de palabras, a menudo como vectores, que capturan sus relaciones semánticas y contextuales. La necesidad de transformar texto sin formato en números surge de la incapacidad de la mayoría de los algoritmos de aprendizaje automático para procesar texto sin formato, lo que convierte a las incrustaciones de palabras en una herramienta fundamental en el procesamiento del lenguaje natural (NLP). El video describe las diversas aplicaciones de las incrustaciones, incluyendo la clasificación de texto y el reconocimiento de entidades nombradas (NER), y el proceso de su creación a través de modelos entrenados en grandes corpus de texto. Finalmente, el texto contrasta los dos enfoques principales, las incrustaciones basadas en frecuencia (como TF-IDF) y las incrustaciones basadas en predicción (como Word2vec y GloVe), y concluye señalando el avance hacia las incrustaciones contextuales que ofrecen los modelos Transformer.

    Voir plus Voir moins
    22 min
Pas encore de commentaire