
Insights from recent episode analysis
Audience Interest
Podcast Focus
Publishing Consistency
Platform Reach
Insights are generated by CastFox AI using publicly available data, episode content, and proprietary models.
Most discussed topics
Brands & references
Est. Listeners
Based on iTunes & Spotify (publisher stats).
- Per-Episode Audience
Est. listeners per new episode within ~30 days
10,001 - 25,000 - Monthly Reach
Unique listeners across all episodes (30 days)
25,001 - 75,000 - Active Followers
Loyal subscribers who consistently listen
15,001 - 40,000
Market Insights
Platform Distribution
Reach across major podcast platforms, updated hourly
Total Followers
—
Total Plays
—
Total Reviews
—
* Data sourced directly from platform APIs and aggregated hourly across all major podcast directories.
On the show
Recent episodes
LM2017 - Llegó la cosecha y la encuesta a mala leche
May 4, 2026
17m 01s
YV - YoVirtualizador 87 - El correo electrónico. Motor del día a día
May 4, 2026
Unknown duration
Casos aislados
May 4, 2026
Unknown duration
ATA 793 Cómo elegir el modelo de IA ideal y por qué a veces se emborracha
May 4, 2026
Unknown duration
La materia prima del oficio: atención sostenida y el valor real del abogado.
May 3, 2026
Unknown duration
Social Links & Contact
Official channels & resources
Official Website
Login
RSS Feed
Login
| Date | Episode | Topics | Guests | Brands | Places | Keywords | Sponsor | Length | |
|---|---|---|---|---|---|---|---|---|---|
| 5/4/26 | ![]() LM2017 - Llegó la cosecha y la encuesta a mala leche✨ | interactions with large corporationssoftware debugging philosophy+4 | — | MicrosoftApple+6 | — | MicrosoftApple+6 | — | 17m 01s | |
| 5/4/26 | ![]() YV - YoVirtualizador 87 - El correo electrónico. Motor del día a día | Llevo muchos años como usuario de correo electrónico. Bastantes menos como administrador de sistemas gestores de correo electrónico. Y estoy muy seguro que es al menos la mitad del trabajo de oficina. Más o menos, Y algo tengo muy claro. cuando el correo no va, o va mal, todo el mundo chilla y llora. 25 años de correo se pueden resumir en poco, o en muchísimo, pero como todos los sistemas, protocolos y entornos, que han sobrevivido a la quema y paso de los años, y han evolucionado para cubrir miles de necesidades. Hace bastante hice un vídeo y un capítulo de podcast que, curiosamente, es de los más reproducidos de su época. Hoy, vamos a no repasar la historia, sino a hablar de cosas actuales, y del riesgo que nos acecha. Además, he decidido dividirlo en varias partes, por aquello de no saturar. También añadiré una infografía al área de comunidad ----------------------------- Nuevo podcast. RSS de Recursos y Humanos: https://anchor.fm/s/10a2c7a80/podcast/rss YoVirtualizador en formato podcast. Ahora también en Sospechosos Habituales: https://wt.territoriolinux.es/rss/short.xml Y sin más, os dejo los enlaces: Web: https://www.yovirtualizador.com Grupo de telegram: https://t.me/grupovirtualizador Podcast: https://www.ivoox.com/podcast-yovirtualizador_fg_f1563806_filtro_1.xml y YouTube https://www.youtube.com/playlist?list=PLrnymu_aoVL6nk1-FcZ220P65tyHV6djV Canal de YouTube: https://www.youtube.com/channel/UC0R70cABSsmC6TFyXth0qPg Enlaces afiliados: Amazon: https://amzn.to/3gX3HmK Asociación Podcast: https://www.asociacionpodcast.es/registrarse/socio/?coupon=SB6A70 iVoox Plus: https://www.ivoox.vip/plus?affiliate-code=323d07d8569f044513746a1be4724b40 iVoox Premium: https://www.ivoox.vip/premium?affiliate-code=03d0efe2be3b55e4cd6df6dc3f6a6dbc iVoox Premium anual: https://www.ivoox.vip/premium?affiliate-code=9feb8e44ecb4c97148e227100af9223b | — | ||||||
| 5/4/26 | ![]() Casos aislados | Dos muertes apuñalados y otro apuñalamiento sin muerte en Barcelona en 12 horas. Casos aislados. Uno de ellos gritaba "Ala es grande", pero investigan antes si es violencia de género. España se va a la mierda, y Barcelona en concreto lo está ya.Este podcast está asociado a Sospechosos Habituales donde podréis encontrar otros muchos podcast de diferentes temáticas. | — | ||||||
| 5/4/26 | ![]() ATA 793 Cómo elegir el modelo de IA ideal y por qué a veces se emborracha | Hoy vamos a meternos de lleno en las tripas de la inteligencia artificial local, porque sigo dándole vueltas a una herramienta que me tiene completamente robado el corazón: OpenWeb UI.Seguramente habrás oído hablar de ChatGPT, Gemini o Claude. Son herramientas increíbles, pero tienen un problema: no son tuyas. En este episodio, y probablemente en el siguiente, quiero contarte cómo estoy consiguiendo que mi propia IA en local no solo iguale a estas opciones comerciales, sino que en muchos aspectos las supere, especialmente en algo que a veces olvidamos: la soberanía digital y la capacidad de organización.¿Por qué OpenWeb UI es un cambio de juego?Lo que me ha volado la cabeza de OpenWeb UI es cómo reúne lo mejor de cada casa. He estado probando decenas —y no exagero, de verdad, decenas— de modelos distintos estos días. Mi objetivo era claro: ver cuánto consumen, qué rapidez de respuesta tienen y, sobre todo, hasta qué punto puedo sustituir mi flujo de trabajo en la nube por algo que corra en mi propio hardware. Una de las funciones que más me han gustado es el sistema de carpetas. Poder asignar un modelo específico a una carpeta de proyectos de Rust, y otro modelo distinto para resúmenes de artículos, es una maravilla que me permite "cacharrear" con una precisión que no encontraba en Gemini o ChatGPT.El misterio de la IA que se "emborracha"¿Te ha pasado que estás hablando con una IA y de repente empieza a decir cosas sin sentido o se olvida de lo primero que le dijiste? Eso es lo que yo llamo "borrachera de datos", y la culpa la tiene la ventana de contexto. En este episodio te explico qué es exactamente este espacio de memoria a corto plazo del modelo. Me encontré con un problema frustrante: mi IA local parecía tener memoria de pez. Y después de mucho investigar, descubrí que Ollama, el servidor de modelos que utilizo, define por defecto una ventana de contexto muy pequeña, a veces de solo 2.048 o 4.096 tokens.Para que te hagas una idea (esta es la regla de la servilleta que cuento en el audio): 4.000 tokens equivalen a unas 5 o 6 páginas de texto. Si le pasas unas instrucciones iniciales largas (el system prompt), le haces un par de preguntas y la IA te responde, ¡pum!, se acabó el espacio. En cuanto llegas al límite, la IA empieza a descartar lo primero que le dijiste. Por eso parece que se olvida de quién es o de qué le habías pedido.Matemáticas para no volverse loco con la RAMCapítulos del episodio:00:00:00 Presentación: Exprimiendo OpenWeb UI00:01:21 El experimento: Probando decenas de modelos locales00:02:19 Organización y carpetas: La gran ventaja frente a ChatGPT00:03:53 El núcleo del episodio: Modelos y Prompts00:05:00 LLM FIT: Cómo encontrar el modelo ideal para tu hardware00:06:14 ¿Qué es la ventana de contexto y por qué es vital?00:07:08 El límite oculto de Ollama: ¿Por qué tu IA tiene memoria de pez?00:08:33 Automatización: Ollama Audit y scripts de personalización00:10:38 Cómo modificar el contexto y crear modelos custom00:11:42 Matemáticas de la RAM: ¿Cuántos tokens caben en tu equipo?00:13:00 Guía rápida: Ventanas de contexto recomendadas según la tarea00:14:23 El equilibrio: Peso del cerebro vs Memoria de trabajo (KV Cache)00:15:42 El idioma importa: Tokens en español vs Inglés00:16:35 Por qué 4.000 tokens se quedan cortos (System Prompt e Historial)00:18:27 La analogía de la servilleta: Ejemplos de uso del contexto00:20:12 Calidad vs Velocidad: ¿Qué modelo elegir?00:21:41 Organización real: Mis Prompts y carpetas en OpenWeb UI00:24:33 Soberanía digital y despedidaMás información y enlaces en las notas del episodio🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux✈️ Telegram (el canal) 👉 https://t.me/canal_atareao🦣 Mastodon 👉 https://mastodon.social/@atareao🐦 Twitter 👉 https://twitter.com/atareao🐙 GitHub 👉 https://github.com/atareao | — | ||||||
| 5/3/26 | ![]() La materia prima del oficio: atención sostenida y el valor real del abogado. | ¿Qué es lo que hacemos realmente cuando hacemos bien nuestro trabajo? En este segundo episodio de la temporada "El oficio bien hecho", reflexionamos sobre el núcleo de la abogacía y la paradoja de trabajar rodeados de interrupciones. Descubrimos que nuestra materia prima no es el papel, sino la atención sostenida sobre texto complejo. Analizamos las cuatro categorías de actividad en el despacho para evitar cambiar nuestro mejor tiempo por urgencias que no lo merecen y te proponemos un diagnóstico en tres preguntas para transformar tu jornada. Cerramos con una reflexión estoica inspirada en Epicteto para aprender a defender nuestro tiempo de pensamiento frente a las presiones externas. | — | ||||||
| 5/3/26 | ![]() BUEN AUDIO - Comparativa Lark C1 y Lark M2S | Segundo audio que subo hoy debido a un error en la grabación del programa de esta mañana. En esta nueva versión si podréis comparar los dos audios del Hollyland Lark C1 y del Hollyland Lark M2S.Llevaba muchisimos programas sin errores, y hoy lamentablemente cometí uno. Espero que me lo sepan perdonar.Este podcast está asociado a la red de Sospechosos Habituales donde podréis encontrar otros muchos podcast de diferentes temáticas. | 13m 30s | ||||||
| 5/3/26 | ![]() T50.- Episodio 372. Zcal, para acabar con el infierno de convocar una reunión | En un mundo donde el tiempo es la moneda más cara, agendar una simple reunión se ha convertido en un campo de minas de correos interminables y enlaces de pago restrictivos. Una plataforma está rompiendo el monopolio de la eficiencia: ZCAL. Hay que probarla. Gratias da mucho más que otras de pago. https://zcal.co Podcast asociado a la red de SOSPECHOSOS HABITUALES. Suscríbase con este feed: https://wt.territoriolinux.es/rss/short.xml | — | ||||||
| 5/3/26 | ![]() Hollyland Lark M2S vs Lark C1 | Comparamos mis antiguos microfonos Hollyland Lark C1 con mis nuevos Hollyland Lark M2S y os comento características de todos los microfonos inalambricos de Hollyland, los A1, C1, M2 y M2S.Este podcast está asociado a la red de Sospechosos Habituales donde encontraréis otros muchos podcast de diferente temáticas. | 13m 22s | ||||||
| 5/3/26 | ![]() Hermanos Musulmanes | Os hablo hoy de una organización oscura que desde las sombras ha estado dirigiendo los destinos de los musulmanes sunies y su relación con los estados islámicos y últimamente en Europa. Una organización cuyo objetivo es extender el Islam y lograr que los estados apliquen la sharia, la ley musulmana.Este podcast está asociado a la red de Sospechosos Habituales donde podréis encontrar otros muchos podcasts de diferentes temáticas. | — | ||||||
| 5/2/26 | ![]() 2016LM - ¿A dónde van mos Mac que no vemos? | Palabras clave: gato, tecnología, dock, automatización, scripts, hardware, Apple, logística. ### Comportamiento y adaptación del gato ### Situación logística del nuevo equipo informático ### Configuración técnica y automatización del flujo de trabajo ### Venta de equipo y gestión de hardware | — | ||||||
Want analysis for the episodes below?Free for Pro Submit a request, we'll have your selected episodes analyzed within an hour. Free, at no cost to you, for Pro users. | |||||||||
| 5/1/26 | ![]() La paradoja del abogado contemporáneo: hiperdisponibles, pero sin tiempo para pensar | La paradoja del abogado contemporáneo: hiperdisponibles, pero sin tiempo para pensar Son las cinco y cuarenta y cinco de la tarde. Estás concentrado en el fundamento jurídico de un recurso vital. Por fin tienes la frase exacta en la cabeza, y entonces suena Lexnet o llega el WhatsApp de un cliente. En ese instante, el argumento se disuelve. Bienvenido a la abogacía en 2026. En este primer episodio de la temporada "El oficio bien hecho", Julián Ramírez López nos presenta un diagnóstico crudo y necesario de nuestra profesión: nunca hemos estado tan disponibles, pero paradójicamente, nunca hemos tenido tan poco tiempo para pensar con profundidad. A lo largo del episodio exploramos: El cambio de paradigma: Cómo pasamos de un entorno con margen para pensar al ritmo frenético de la economía de la atención fragmentada. El coste de la inmediatez: Por qué intentar pensar despacio en un mundo que premia la velocidad tiene un precio para nuestra salud y la calidad técnica de nuestros escritos. El sistema personal: Los cinco pasos para proteger el tiempo en el calendario y recuperar el juicio profundo. Una llamada a recuperar el oficio de siempre frente al ruido digital. Porque la pregunta verdaderamente importante no es si estamos disponibles para todos, sino hacia dónde queremos ir con nuestra carrera. ¿Te ha resonado esta paradoja? Si te ha gustado, suscríbete, déjanos una valoración en iVoox y cuéntanos en los comentarios cómo vives tú esta situación en el despacho. ¡Nos vemos el próximo episodio, donde hablaremos de la verdadera materia prima de nuestro oficio! | — | ||||||
| 5/1/26 | ![]() VERNE 19 - ¿Miguel Strogoff o el correo del zar? [T2E7] | **Palabras Clave:** Miguel Strogoff, Julio Verne, Rusia, Siberia, Deber, Lealtad. - Introducción y Presentación del Invitado - La Novela y el Personaje Principal - Personajes Secundarios y Temas - La Rebelión Tártara y el Contexto Histórico - El Antagonista y la Espía - Cambios Editoriales y Censura - Geografía y Popularidad de Rusia - Los Periodistas | — | ||||||
| 5/1/26 | ![]() Crossover con Bala Extra - Politica e inmigración | Nos juntamos Pedro Sanchez (el bueno) de Bala Extra y yo para hablar de política española y de inmigración en un largo pero interesante capítulo para que estés entretenido este puente.Este podcast está asociado a la red de Sospechosos Habituales donde podréis encontrar otros muchos podcast de diferente temáticas. | — | ||||||
| 5/1/26 | ![]() PPF-Rosalina reposicion 2026 | Buenas muchachada como cada año el dia 1 de Mayo repongo el episodio 127 publicado originalmente en Mayo de 2021 y dedicado a mi abuela Rosalina. Métodos de contacto: Mastodon: @PapaFriki@mas.to Correo: alberto@papafriki.es Web: http://www.papafriki.es Telegram: t.me/papa_friki Youtube: https://www.youtube.com/channel/UCAl-ql8V1IUZKYYLhhUVCYw Linktr.ee: https://linktr.ee/papa_friki Feed podcast: http://feeds.feedburner.com/papafriki | 7m 25s | ||||||
| 4/30/26 | ![]() EL SINDROME DEL IMPOSTOR | "Hoy se va a notar". Esa voz dentro de tu cabeza, justo antes de entrar a sala, después de leer una sentencia adversa, o cuando un cliente cuestiona tu estrategia. Si la has escuchado, este episodio es para ti. El síndrome del impostor no es modestia ni inseguridad sana. Es la convicción persistente de que tu éxito profesional se debe a la suerte, al despiste de los demás o a una proyección, pero no a tu competencia real. Fue descrito clínicamente por Clance e Imes en 1978, y los estudios de salud mental en profesiones jurídicas lo sitúan, entre abogados, muy por encima de la media de otras profesiones. En este episodio monográfico de 22 minutos abordamos el problema con la metodología que vertebra Legalmente Productivos: vivencial, sistémica y filosófica. Verás: • Por qué la abogacía es un caldo de cultivo perfecto para el síndrome del impostor (cinco razones estructurales). • Los cinco disparadores típicos en la toga: la sentencia adversa, el cliente que cuestiona, el compañero brillante, la sala de vistas y el expediente nuevo en materia poco transitada. • La capa estoica: cómo aplicar la dicotomía del control de Epicteto al resultado procesal. • La capa sistémica: por qué un sistema GTD/PARA bien construido baja la sensación de impostor más que cualquier frase motivacional. • La capa profesional: registro de victorias, mentoría, formación con propósito y cuidado del cuerpo. Un episodio honesto, sin autoayuda barata y con la profundidad que se merece una de las dimensiones más calladas del ejercicio profesional. Si te ha servido, compártelo con un compañero. Probablemente él también está librando esta batalla en silencio. | — | ||||||
| 4/30/26 | ![]() 2015LM - Más negro y más grande | Palabras clave: Hardware, Mac Studio, Inteligencia Artificial, Agentes, Python, C#, Automatización de noticias, Desarrollo de software, Modelos de lenguaje. ### Estado del hardware y logística ### Reflexiones sobre programación y herramientas ### Proyectos de automatización e Inteligencia Artificial ### Observaciones personales | — | ||||||
| 4/30/26 | ![]() Cómo la IA y la Dark Web le pusieron PRECIO a tus DATOS (incluye lista de precios) | En este episodio, desnudamos la cruda realidad del mercado de identidades en la Dark Web. Basándonos en los informes más recientes de gigantes de la ciberseguridad, analizamos cómo tus tarjetas, correos y registros médicos se comercializan como simples mercancías en México, Latinoamérica, España y Estados Unidos.Exploramos la alarmante eficiencia del cibercrimen moderno: desde paquetes de datos a bajo costo hasta el uso de la Inteligencia Artificial para crear fraudes perfectos. ¿Es la digitalización nuestra mayor aliada o nuestra sentencia de vulnerabilidad? Acompáñanos a descubrir el precio real de ser un ciudadano digital en 2026 y, lo más importante, qué puedes hacer para no terminar en el catálogo de los criminales.Tu Dosis Perfecta de Investigaciones Tecnológicas a nivel mundial y Noticias Aderezadas con Interesantes, Analíticas y hasta Sarcásticas Opiniones Gracias por Escuchar y COMPARTIR | 27m 36s | ||||||
| 4/30/26 | ![]() Aldama tira de la manta | Ayer el empresario y comisionista Victor de Aldama declaró en el Tribunal Supremo durante 9 horas dentro del llamado "Caso Koldo". El empresario decidió tirar de la manta y sus declaraciones secundan perfectamente las investigaciones de la UCO.Este podcast está asociado a la red de Sospechosos Habituales donde podréis escuchar otros muchos podcast de diferentes temáticas. | — | ||||||
| 4/30/26 | ![]() PPF-Aplicación Mi carpeta ciudadana | Buenas muchachada hoy toca hablar de la aplicación Mi Carpeta Ciudadana para android. Métodos de contacto: Mastodon: @PapaFriki@mas.to Correo: alberto@papafriki.es Web: http://www.papafriki.es Telegram: t.me/papa_friki Youtube: https://www.youtube.com/channel/UCAl-ql8V1IUZKYYLhhUVCYw Linktr.ee: https://linktr.ee/papa_friki Feed podcast: http://feeds.feedburner.com/papafriki | 12m 41s | ||||||
| 4/30/26 | ![]() ATA 792 Open WebUI, el ChatGPT PRO que puedes tener GRATIS y 100% local | ¿Te has fijado en que el panorama de la inteligencia artificial está cambiando a pasos agigantados? Lo que hasta hace dos días era un campo de juegos gratuito, donde podíamos probarlo todo sin soltar un euro, se está transformando rápidamente en un servicio de suscripción más, como la luz o el teléfono. Pero no solo es una cuestión de dinero. Hay algo que me preocupa mucho más: tu privacidad y la propiedad de tus datos.En este episodio número 792 de Atareao con Linux, quiero invitarte a dar un paso adelante en tu camino hacia la soberanía digital. Vamos a hablar de cómo montar tu propio laboratorio de inteligencia artificial en casa, utilizando una herramienta que es, sencillamente, una maravilla: Open WebUI. Olvídate de depender de servidores externos para tareas sensibles; es hora de que el motor de la IA corra en tus propias máquinas.¿Por qué Open WebUI?Si ya has escuchado episodios anteriores, sabrás que soy un gran fan de Ollama para ejecutar modelos en local desde la terminal. Pero seamos sinceros: la terminal es fantástica para muchas cosas, pero para mantener una conversación fluida con un modelo de lenguaje, todos preferimos una interfaz visual. Open WebUI es ese "vestido elegante" que le ponemos a nuestros modelos locales. Es una interfaz web que, nada más verla, te va a resultar familiar porque se parece muchísimo a ChatGPT o Gemini, pero con una diferencia fundamental: tú tienes el control total.Personalización y diversión: El caso de Leslie WinkleUna de las cosas que más me apasiona de esta herramienta es su "Model Builder". No se trata solo de elegir un modelo como Llama 3 o Gemma y empezar a escribir. Puedes ir mucho más allá. En el podcast te cuento cómo he creado un modelo específico con la personalidad de Leslie Winkle, el personaje de Big Bang Theory. Le he dado instrucciones precisas sobre cómo comportarse, quiénes son sus aliados y quiénes sus enemigos. El resultado es una IA con la que puedo "pelear" intelectualmente y que me llama "cerebro de corcho". Es divertido, sí, pero también demuestra el poder de crear asistentes especializados para tareas concretas de tu trabajo o tu día a día.Características que marcan la diferenciaGestión de usuarios y grupos.Soberanía de datos con RAG.Búsqueda Web PrivadaSoporte para fórmulas y código.Capítulos del episodio:00:00:00 ¡Al rico modelo local! Introducción00:00:27 El fin de la era "gratis" en la IA comercial00:01:31 Privacidad y bolsillo: Las dos razones para el local00:02:42 Más allá de la terminal: Buscando la interfaz ideal00:03:47 Presentando Open WebUI: El cerebro de tu laboratorio00:05:21 ¿Qué es exactamente Open WebUI?00:06:28 Personalización extrema: Mi charla con Leslie Winkle00:08:11 Gestión de usuarios y permisos granulares00:09:48 PWA, Markdown y soporte para fórmulas matemáticas00:10:55 Model Builder: Crea tus propios expertos a medida00:12:12 Integrando Python y funciones avanzadas00:13:34 Buscando en la web de forma privada con SearXNG00:15:13 Integraciones en la nube y bases de datos vectoriales00:16:08 Un vistazo al panel de administración y consumo00:18:24 El arte del Prompting: Carpetas y roles de sistema00:20:38 Mi infraestructura: Podman, Traefik y contenedores00:22:56 Recursos, chuletas y el repositorio de GitHub00:24:12 Despedida y red de Sospechosos HabitualesMás información y enlaces en las notas del episodio🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux✈️ Telegram (el canal) 👉 https://t.me/canal_atareao🦣 Mastodon 👉 https://mastodon.social/@atareao🐦 Twitter 👉 https://twitter.com/atareao🐙 GitHub 👉 https://github.com/atareao | — | ||||||
| 4/29/26 | ![]() MdE- Razones para NO regalar.un iPhone | Hoy os cuento cuáles son mis razones principales por las que no le hemos comprado un iPhone a un adolescente y las comparto con vosotros por sí os sirven de algo. Por supuesto soy todo oídos y escucharé atentamente las vuestras bien sean a favor o en contra. Siempre se aprende. Un abraaaaaazo! No dejéis de buscar a los compañeros de la red de podcast SOSPECHOSOS HABITUALES. | — | ||||||
| 4/27/26 | ![]() INK0180 - Día naranja. | Hoy es el cumpleaños del rey holandés, día libre. La gente se viste de naranja y se va de farra. Yo me lo tomo tranquilito y voy de mercadillo a buscar chollos para mi gato naranja. Y hubo suerte, una cama-donut y un ratón ruidoso por 2 euros. Feliz como una perdiz fuera de temporada de caza. | — | ||||||
| 4/27/26 | ![]() Podcasts "ZOMBIES” y 140,000 Canciones CREADAS por IA al DÍA | ¿Estamos viviendo el nacimiento de una nueva era o el entierro de los creadores reales? En este episodio, exploramos cómo la Inteligencia Artificial está inundando las plataformas de streaming y qué significa esto para quienes ponen el corazón (y no solo el algoritmo) en lo que hacen.¿Estamos listos para competir contra máquinas que nunca descansan? Acompáñanos en esta charla sobre tecnología, algoritmos y esa "chispa" humana que, por ahora, la IA intenta imitar.Tu Dosis Perfecta de Investigaciones Tecnológicas a nivel mundial y Noticias Aderezadas con Interesantes, Analíticas y hasta Sarcásticas Opiniones Gracias por Escuchar y COMPARTIR | 25m 36s | ||||||
| 4/27/26 | ![]() 2014LM - Negro y grande | Palabras clave: Apple, MacBook Pro, hardware, RAM, tecnología, dispositivos, venta, procesadores, M5 Max, experiencia de usuario. ### Motivaciones para la compra del MacBook Pro con 128 GB de RAM ### Gestión de equipos antiguos y disponibilidad ### Comparativa de rendimiento entre equipos ### Notas personales y de organización | — | ||||||
| 4/27/26 | ![]() ATA 791 ¿Ollama o Llama.cpp? Cuál elegir para montar tu propia Inteligencia Artificial | ¡Hola, muy buenas! Soy Lorenzo y hoy te traigo el episodio número 791 de Atareao con Linux. Si has estado siguiendo mis últimas aventuras tecnológicas, sabrás que me he sumergido de lleno en el fascinante mundo de los modelos de lenguaje locales. Sin embargo, a raíz de mis vídeos y artículos sobre Ollama, ha surgido una pregunta recurrente en la comunidad: ¿Por qué usar Ollama y no Llama.cpp directamente? ¿O es que acaso uno es mejor que el otro? En este episodio me he propuesto despejar todas tus dudas y, de paso, contarte algunas novedades sobre hardware que te van a dejar con la boca abierta.El origen: Entre amigos y tecnología en el Linux CenterTodo esto empezó a fraguarse en las recientes jornadas de Inteligencia Artificial que vivimos en el Linux Center junto a los amigos de Slimbook. Fue una experiencia increíble donde pude compartir charla con Alejandro López y Manuel Lemos. Ver el interés de la gente y cómo el curso se llenó por completo me dio una pista clara: todos queremos tener el control de nuestra propia IA. Alejandro, que es un gran impulsor de estos temas, me prestó un equipo que ha sido clave para mis pruebas actuales y del cual te hablo un poco más adelante en este audio.Llama.cpp: El quirófano de los tensoresPara entender la diferencia, hay que saber qué es cada cosa. Llama.cpp es el motor puro. Imagínate que es el motor de un coche de competición donde puedes ajustar hasta la última tuerca. Está escrito en C++ por Georgi Gerganov con un objetivo claro: el máximo rendimiento. Ollama: La experiencia de usuario elevada al máximoPor otro lado, tenemos a Ollama. Muchas veces se ven como rivales, pero la realidad es que Ollama utiliza Llama.cpp por debajo. La diferencia es que Ollama es un "envoltorio" o orquestador escrito en Go que nos facilita la vida de una manera brutal. Se encarga de gestionar la memoria de tu tarjeta gráfica (VRAM) de forma inteligente.Cacharreando con contenedores y personalidad propiaComo no podía ser de otra forma, yo he montado Llama.cpp usando Podman y Quadlets, integrándolo totalmente en mi flujo de trabajo. En este episodio te cuento cómo he configurado mi NVIDIA RTX 4060 Ti de 16GB para que vuele, permitiéndome usar contextos de hasta 128K.Hardware: NVIDIA y el silencio de las NPUUno de los grandes temas de este episodio es el hardware. Hago un repaso por las tarjetas de NVIDIA, desde la serie 30 hasta la potente serie 50. Pero la verdadera sorpresa ha sido el Slimbook One con NPU (Neural Processing Unit). La anatomía de los modelos: Rompiendo el código¿Alguna vez has visto nombres de modelos como "Mistral-7B-Instruct-v3-Q4_K_M.gguf" y te has sentido perdido?Capítulos del episodio para que no te pierdas nada:00:00 - Bienvenidos al episodio 791: Ollama vs Llama.cpp01:35 - Crónica de las jornadas de IA en el Linux Center con Slimbook03:34 - ¿Por qué hay tanta polémica entre Ollama y Llama.cpp?04:42 - Llama.cpp: El "quirófano" de los tensores y el rendimiento puro05:18 - Ollama: El orquestador que nos facilita la vida06:40 - Comparativa: ¿Qué hace uno que no haga el otro?07:59 - ¿Eres de IKEA o de fabricar tus propios muebles?09:00 - Cacharreando con Llama.cpp, Podman y Quadlets10:48 - Leslie: Mi IA con personalidad propia en OpenWeb UI12:44 - Cómo descargar modelos a mano con Rust HF Downloader13:50 - Hardware para IA: Guía rápida de tarjetas NVIDIA17:15 - La experiencia con el Slimbook One y su NPU integrada18:05 - Anatomía de un modelo: Entendiendo los nombres19:40 - La piedra de Rosetta de la cuantización21:08 - Conclusiones y próximos pasos con OpenWeb UIMás información y enlaces en las notas del episodio🌐 Aquí lo puedes encontrar todo 👉 https://atareao.es✈️ Telegram (el grupo) 👉 https://t.me/atareao_con_linux✈️ Telegram (el canal) 👉 https://t.me/canal_atareao🦣 Mastodon 👉 https://mastodon.social/@atareao🐦 Twitter 👉 https://twitter.com/atareao🐙 GitHub 👉 https://github.com/atareao | — | ||||||
Showing 25 of 89
Sponsor Intelligence
Sign in to see which brands sponsor this podcast, their ad offers, and promo codes.
Chart Positions
1 placement across 1 market.
Chart Positions
1 placement across 1 market.









![VERNE 19 - ¿Miguel Strogoff o el correo del zar? [T2E7] episode artwork](https://static-1.ivoox.com/canales/6/6/b/9/66b9cf0872262b4cfc024c78c922b02d_XXL.jpg)







