IA a céntimos y el misterio del Mac Studio sin internet

Descubre cómo he revolucionado mi blog con IA por céntimos y resuelve conmigo el misterio que dejó mi Mac Studio sin conexión a la red por culpa de Tailscale.

Este texto ha sido generado por Gemini 2.5/3.1 a partir del audio del autor. El contenido y las ideas son íntegramente del autor; la redacción ha sido asistida por IA.


¿Qué pasa, gallinicas mías? Aquí vuestro reportero más dicharachero para contaros un par de batallas. Si habéis seguido las últimas entradas del blog, habréis notado un cambio de calidad más que absoluto en los textos generados a partir de los audios. Antes de desvelar el secreto detrás de esta mejora, permitidme que os cuente una de esas historias del abuelo Cebolleta que tanto nos gustan.

Una historia de terror en la red: Cuando el Mac Studio se negó a conectar

Desde hace varios días, mi Mac Studio sufría una conexión de red terriblemente lenta. No hablo de un pequeño lag, sino de una velocidad de entre 1 y 2 kilobytes por segundo. La situación llegó a un punto crítico este domingo por la tarde, cuando la red local dejó de funcionar por completo. Olvidaos de internet; ni siquiera podía comunicarme con mi Synology. El Synology Drive iba a paso de tortuga y compartir la pantalla con el Mac Mini en alta calidad era una misión imposible, a pesar de que todo está conectado por cable a través del router y switches.

Bastante mosqueado, empecé el ritual de solución de problemas: revisé las prioridades de red, desconecté y conecté el WiFi, cambié los cables de red entre el Mac Mini y el Mac Studio, conecté el equipo directamente al router… Nada. El rendimiento de la red del Mac Studio era, sencillamente, asqueroso. Me negaba en rotundo a reinstalar macOS otra vez, así que estaba a punto de tirar la toalla.

En un acto de desesperación, le pregunté a Gemini, que me dio una serie de pasos estructurados para encontrar la solución. Aunque ninguna de sus sugerencias directas funcionó, me pusieron en el camino correcto. Mientras investigaba, mi subconsciente me gritaba que mirara algo que tenía delante de las narices. Y de repente, lo vi: ¿qué demonios hacía la VPN de Tailscale activada sin ningún icono en la barra de menús?

Fue hacer clic en «desactivar» y, como por arte de magia, todo volvió a la vida. Las ventanas que cargaban con una lentitud exasperante hicieron «frrrr, roca» y la velocidad se disparó de nuevo a los 800 Mbps. El culpable era el maldito Tailscale. Según me confirmó Gemini, es un problema que puede ocurrir, sobre todo si se activa el «exit node». Parece que se enreda con las IPs locales (las del tipo 100.x.x.x) y no es capaz de resolver las DNS correctamente, colapsando toda la conexión.

La solución fue drástica pero necesaria. Desinstalé Tailscale del NAS, para lo cual tuve que activar momentáneamente el acceso SSH, ejecutar los comandos de borrado y volver a desactivarlo. Hice lo mismo en el Mac y en el iPhone, y para rematar, entré en la web de Tailscale y eliminé toda mi configuración. No quiero que dentro de una semana se reactive solo y me vuelva a dejar tirado. Así que, una y no más, Santo Tomás. Y si ahora sale el de siempre a decir «pues a mí me va bien», le diré: cojonudo para ti.

El dilema: ¿IA local o en la nube? Un análisis de costes

Ahora sí, vamos al meollo del asunto: el salto de calidad en las entradas del blog. Todo empezó con un profundo estudio económico. Estuve barajando la idea de comprar un nuevo Mac Studio con 128 GB de RAM y 4 TB de disco duro para ejecutar modelos de IA en local. El capricho, entregando mi equipo actual, se iba a unos 5.000 euros.

Haciendo números, si mi gasto actual en tokens de API es de unos 20 euros al mes, necesitaría 20 años para amortizar esos 5.000 euros. Como bien me dijo Gemini, «cuando pasen los 20 años, ese Mac Studio será un pisapapeles muy caro que fue muy caro en su momento». La lógica era aplastante, así que decidí optimizar mi flujo de trabajo usando APIs online.

Mi nuevo flujo de trabajo y el ridículo coste de la calidad

Mi proceso ahora es un híbrido. La eliminación de ruido del audio la hago con una red neuronal en local, que es prácticamente instantánea. La transcripción también la realizo en local, aunque curiosamente en el Mac Studio va superlenta, mientras que en mi viejo iMac Intel es siete veces más rápida. El paso final, la creación del texto del blog, es donde entra en juego la API de Gemini.

Para que os hagáis una idea, he procesado tres podcasts con este nuevo sistema, incluyendo la reescritura de la entrada sobre Roma y una nueva sobre otro libro. El consumo total fue de 19.000 tokens. ¿El coste? Preparaos: cuatro céntimos de euro. Por cuatro céntimos, estoy obteniendo una calidad de texto espectacular, y eso que podría usar un modelo más caro. Me he puesto un límite de 10 euros al mes para esto, y a este ritmo, me va a durar meses.

También exploré los costes de traducción. Una traducción decente para uso interno sale por un euro y medio cada 100.000 palabras, lo que equivale a un libro de 200-300 páginas. Gemini me calculó que traducir una obra como Guerra y Paz (que, de forma un poco inquietante, sabía que estaba leyendo en papel) costaría entre 8 y 10 euros. Luego caí en la cuenta de que lo sabía porque se lo mencioné en una de las transcripciones que le pasé para analizar. ¡Qué memoria tiene el bicho!

La IA, la traducción y una imitación fallida de Dune

Hablando de traducir, no creo que vaya a usar la API para traducir 200 libros al mes. Normalmente leo en inglés, pero hace poco traduje la novela El Imperio del Silencio porque su estilo de escritura me resultaba extraño y no lograba concentrarme. Más tarde descubrí que la comunidad de fans ya había traducido toda la saga.

Aunque dicen que es como Dune, mi opinión es muy distinta. Intenta imitar ese tono místico-mesiánico, pero no se le acerca ni a la suela de los zapatos. Me resulta aburrida y demasiado explicativa. El autor te cuenta la historia dos veces: primero narra la acción y luego te detalla el proceso interno de decisión del personaje. Es redundante y no termina de cuajarme.

En fin, el futuro pasa por seguir afinando este sistema. Quizás el próximo paso sea usar una voz sintética para limpiar las grabaciones de repeticiones y muletillas, pero eso ya será para otra reencarnación. Por ahora, el salto cualitativo y económico es innegable.

Así que ya sabéis, no olvidéis sospechosos habitualizaros, que no os la pique un pollo belga. ¡A demonio demoníaco!

Mi Flujo de Trabajo con IA: Un Gorila, un Mac y un Pajarito

Descubre mi nuevo flujo de trabajo para el podcast, desde la portada creada con IA hasta la automatización total y mis planes para un futuro Mac Studio.

Este texto ha sido generado por Gemini 2.5/3.1 a partir del audio del autor. El contenido y las ideas son íntegramente del autor; la redacción ha sido asistida por IA.


¡Qué pasa, gallinoleidos míos! Aquí vuestro reportero más dicharachero para contaros las novedades del podcast y las reflexiones tecnológicas que me acompañan. Veréis que hay cambios, experimentos y, como siempre, algún que otro desvarío.

Una nueva cara para el podcast

Lo primero es lo primero: quiero dar un agradecimiento enorme a Marcus Fernández (@MarcusFernandez en Twitter). Me preparó dos carátulas nuevas para el podcast y he de decir que son una pasada. Si habéis escuchado el último episodio, habréis visto la nueva portada: un gorila sosteniendo un libro que pone «Lo he leído, libros sin hilos».

Marcus me hizo una versión con texto y otra sin él, y he elegido la primera. La verdad es que está muy bien, mucho mejor de lo que yo podría haber hecho. Me comentó que la anterior, la de «Leña al Mono», la había hecho con inteligencia artificial. No sé si será diseñador o no, pero desde luego, tiene un talento increíble. ¡Gracias, Marcus!

La nomenclatura 2.0 y los fantasmas de iVoox

El primer capítulo con este nuevo formato ya está fuera y, como habréis notado, he cambiado la nomenclatura. Ahora los episodios seguirán un formato como 2001 LM, 2002 LM, etc. Esta genial idea me la recomendó un oyente en un comentario en iVoox, en el audio del «Notición Importantón de Leña al Mono».

El problema es que iVoox, que es una puta mierda pinchada en un puto palo de mierda, no me deja interactuar como usuario. Puedo subir contenido como podcaster, pero no puedo responder a los comentarios. Y para colmo, parece que el comentario ha desaparecido, así que no puedo dar el crédito a quien lo merece. Lo siento, tu mensaje se ha perdido en el éter, pero que sepas que tu idea ha sido genial. Me permite ordenar los audios procesados en secuencia en mi carpeta de macOS, algo de lo que no me fío si dependo solo de la fecha de creación.

El experimento: cuando la IA toma el micrófono

El último audio es un experimento generado con Notebook LM. Y ojo, no es tan simple como subir un libro y pedirle que lo narre. He ido reconstruyendo el guion, seleccionando los fragmentos que la IA me proporcionaba y, con un pequeño prompt, le he pedido que generara el audio final. El resultado es cojonudo, la verdad.

Esto nos va a eliminar a los podcasters, al menos en cierta medida. Yo no podría haber grabado algo tan completo, tan bien contado y con esas voces. Y recordad esto que digo sobre las voces, porque «todo se andará». El experimento sigue adelante, aunque las entradas de blog que acompañan a los audios sean bastante mierdosas, porque también las genera un LLM.

La filosofía del gandul tecnológico

Mi objetivo es no complicarme la vida. Soy como ese personaje gandul de Robert Heinlein en «Tiempo para Amar», que solucionaba problemas tecnológicos por pura pereza de no querer trabajar. Si tengo que procesar este audio, transcribirlo, reescribir el blog, subirlo a Gemini y darle un prompt… no lo hago. Ni tengo ganas, ni paciencia, ni nada.

Mi flujo de trabajo actual es la personificación de esa pereza. Hago clic en un acceso directo, se abre una ventana de comandos con el entorno de Python cargado, tecleo un único comando y le doy a Enter. Eso es todo. El script se encarga de eliminar el ruido, generar la transcripción, crear los resúmenes en DevonThink, redactar la entrada del blog y publicarla como borrador. Si no fuera así de simple, no habría ni blog, ni resúmenes, ni su puta madre.

El cuello de botella: la memoria y mi Mac actual

El problema es que, para procesar un audio, tengo que cerrarlo todo en el Mac. El modelo de IA que uso, Command R, consume toda la memoria. Si tengo DevonThink o cualquier otra cosa abierta, el Mac se bloquea por completo. Supongo que es un fallo de macOS con los Apple Silicon, que en lugar de lanzar una excepción cuando se queda sin memoria, simplemente se congela.

Esto me recuerda a mis tiempos de desarrollador en Windows. Allí, cuando pides memoria, el sistema te la reserva en el espacio de direcciones, pero solo la asigna físicamente cuando la usas. Si se agota, el sistema se vuelve lentísimo, pero no se congela. De hecho, yo programé un liberador de memoria en C++ con diez líneas de código que se basaba en este principio: asignaba y llenaba bloques de memoria hasta forzar al sistema a descartar cachés y liberar RAM.

El sueño: un Mac Studio para dominarlos a todos

Todo esto me lleva a mi plan futuro. Cuando salga el Mac Studio M5 Max, mi idea es comprarme un equipo con 128 GB de RAM y 4 TB de disco duro. Serán unos cinco mil y pico euros. Como dice el refrán, «nunca más» tendré problemas de memoria. Justo ahora que lo pienso, mi mujer, «Inconvenient», anda cerca… «¿Vas a comprar qué? ¿Qué me dijiste que no te dejará comprar?»… ¡Nada, mujer, que voy a ir al Lidl a comprar galletas!

Bromas aparte, con un equipo así podré tenerlo todo cargado a la vez: DevonThink lanzando su motor de IA para los resúmenes, el LLM Command R generando la entrada del blog… todo sin que el sistema se ahogue. Usar un LLM más pequeño no es una opción, porque el resultado es todavía peor que el que obtengo ahora.

4 TB de disco y un pajarito en la ventana

¿Y por qué cuatro terabytes de disco? Primero, porque Spotlight no busca bien en discos externos. Segundo, porque el disco interno se me llena periódicamente de cachés y temporales. Es una cuestión de comodidad y rendimiento. Mientras pensaba en esto, he visto un pajarito amarillo bañándose en la ventana del salón. ¡Qué guapín! Son las once y media de la mañana, así que supongo que se está dando una ducha antes de irse a dormir a su rama.

Volviendo al tema, contemplo una alternativa: si por el mismo precio de los 4 TB puedo conseguir 256 GB de RAM, quizás opte por eso y siga usando un disco duro externo. Con Thunderbolt 5, las velocidades son de casi 14 GB/s, casi como la memoria DDR2. Sería una opción a valorar.

¿Mac Studio o MacBook Pro? El dilema del sofá

También podría comprar un MacBook Pro con esas características, pero el precio sube a más de 6.500 euros. Además, sufriría de throttling (reducción de rendimiento por calor). La ventaja sería poder trabajar tirado en el sofá, pero el Mac Studio ofrece más potencia bruta y salvaje. En fin, son cosas que tendré que sopesar.

Por ahora no puedo comprar nada. Los equipos custom tardan semanas en llegar y dentro de poco tengo un evento especial del que ya os contaré más adelante. Se me va la pelota, así que voy terminando. No olvidéis lecturo-leñalmono-habitualizaros, y que no os la pique un pollo belga. Y de nuevo, Demonio, lo siento por no tener tu mensaje para darte el crédito que mereces. ¡Ha sido una idea genial!