Alucinando con la IA generativa en AWS

By: Amazon Web Services España
  • Summary

  • Las aplicaciones de IA generativa han suscitado mucha atención y fomentado la imaginación del público general, ya que pueden ayudar a reinventar la mayoría de las experiencias y aplicaciones de los clientes, crear nuevas aplicaciones nunca antes vistas y ayudar a los clientes a alcanzar nuevos niveles de productividad. En este podcast vamos a tratar las distintas temáticas relacionadas con esta nueva tecnología y vamos a contar como puede implantarse en AWS: Prompt engineering, Retrieval Augmented Generation, fine-tunning, modelos fundacionales disponibles, mejores prácticas para desplegar los modelos... y cualquier temática que tome relevancia en este nuevo y cambiante campo de juego tecnológico!
    Copyright Amazon Web Services España
    Show More Show Less
Episodes
  • #006 - Productivizando la IA generativa: LLMOps
    Feb 16 2024
    Después de haber visto las principales estrategias para el uso de la IA generativa toca poner el proyecto en producción. Y ahí es donde las particularidades tanto del Machine Learning como de la IA generativa hacen que tengamos que tener en cuenta elementos adicionales a los de las aplicaciones tradicionales. Conceptos como MLOps, LLMOps, FMOps e incluso XOps toman relevancia. En este episodio, Eduardo Ordax, arquitecto de soluciones en AWS especialista en el tema nos cuenta todo lo que necesitamos saber de dichas prácticas y qué herramientas tenemos en AWS para implementarlas.
    En los siguientes links puedes profundizar sobre los conceptos comentados en el episodio:
    MLOps Matrix guide: https://www.linkedin.com/feed/update/urn:li:activity:7160874825714937856/
    Prompting, RAG o fine-tunning: https://www.linkedin.com/posts/eordax_rag-promptengineering-finetuning-activity-7159432843708805120-uYZJ?utm_source=share&utm_medium=member_desktop

    Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
    Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
    Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/

    Con unas grandes bases técnicas, Eduardo tiene 15 años de experiencia en ventas y desarrollo de negocio. Durante su carrera ha liderado equipos multi-funcionales y recientemente se ha especializado en inteligencia artificial y machine learning. En este entorno tan dinámico las organizaciones se estan dando cuenta que necesita acelerar su implantación y, con este objetivo, Eduardo lidera el Go to Market de AI/ML de AWS en EMEA, ayudando a clientes de todo el mundo a aprovechar el potencial de la inteligencia artificial.
    Es un apasionado de las discusiones sobre estos temas y de las conexiones con compañeros del sector para intercambiar conocimiento y experiencias.
    Contacta con Eduardo Ordax en LinkedIn en https://www.linkedin.com/in/eordax/
    Show More Show Less
    1 hr and 1 min
  • #005 - Desarrollando aplicaciones de IA generativa
    Jan 18 2024
    En este capítulo nos ponemos en la piel del desarrollador de aplicaciones y hablamos sobre todo lo que hay que tener en cuenta cuando se crean aplicaciones basadas en IA generativa. Y para eso hemos sacado a Marcia Villalba de su Podcast de Charlas Técnicas de AWS y nos la hemos traído a esta playlist!

    En el siguiente blog de Marcia tienes acceso a múltiples recursos para ver y probar las técnicas descritas en el capítulo:
    https://blog.marcia.dev/building-ai-apps-with-serverless-resources

    Si quieres hacer tus primeros pasos con Amazond Bedrock y sus funcionalidades de Knowledge Bases y Agents para implementar escenarios de RAG y de ReACt, puedes visitar el siguiente blog:
    https://aws.amazon.com/blogs/aws/preview-connect-foundation-models-to-your-company-data-sources-with-agents-for-amazon-bedrock/

    El podcast de Charlas técnicas de AWS está disponible en https://podcast.marcia.dev/

    Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
    Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
    Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/

    Marcia es una Developer Advocate para AWS en el equipo de Serverless, también es la anfitriona del canal de Youtube FooBar Serverless, y del podcast oficial Charlas Técnicas de AWS.
    Marcia tiene 20 años de experiencia trabajando como programadora de software profesional, creando software que escala a millones de usuarios y con un alto desempeño. Es una apasionada de la filosofía DevOps y de las buenas prácticas de desarrollo.
    Contacta con Marcia Villalba en LinkedIn en https://www.linkedin.com/in/marciavillalba/
    Show More Show Less
    1 hr and 9 mins
  • #004 - Fine tunning de modelos generativos
    Nov 23 2023
    Después de los capítulos sobre Retrieval Augmented Generation y Prompt Engineering, completamos la tríada de estrategias de base para el uso de IA generativa con datos propios con este capítulo dedicado al fine-tunning. Angel Conde, arquitecto de soluciones en AWS, nos cuenta todo lo que necesitas saber sobre esta técnica y como poder implementarla en AWS. ¿Qué es el fine tunning? ¿Cuándo aplicar el fine tunning? ¿Cómo hacerlo? ¿Qué es el olvido catastrófico? Todas las respuestas a estas preguntas y otras en este capítulo.

    Si quieres probar los conceptos aparecidos en el capítulo, puedes hacerlo siguiendo los pasos descritos en los siguientes links:
    https://aws.amazon.com/es/blogs/machine-learning/fine-tune-and-deploy-mistral-7b-with-amazon-sagemaker-jumpstart/
    https://aws.amazon.com/es/blogs/machine-learning/fine-tune-text-to-image-stable-diffusion-models-with-amazon-sagemaker-jumpstart/

    Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.
    Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.
    Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/

    Angel Conde es especialista de analítica de Datos en AWS. Aparte de analítica, forma parte del equipo de especialización de IA/ML de AWS. Antes de estar en AWS dirigió un equipo de investigación en Analítica y AWS, tiene una tesis en NLP y ha dirigido dos tesis en colaboración con diferentes universidades sobre Deep Learning y detección de anomalías en series temporales.
    Contacta con Angel Conde en LinkedIn en https://www.linkedin.com/in/acmanjon/
    Show More Show Less
    39 mins

What listeners say about Alucinando con la IA generativa en AWS

Average Customer Ratings

Reviews - Please select the tabs below to change the source of reviews.

In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.