Cómo instalar y ejecutar Qwen en un iPhone 17 Pro

Ilustración futurista de iPhone ejecutando modelo de lenguaje local con red neuronal visible

Gracias a avances exponenciales en hardware y software, dispositivos como el nuevo  iPhone 17 Pro  no son solo teléfonos, sino verdaderas plataformas de computación neuronal. Este tutorial te guiará a través del proceso de instalación y ejecución de Qwen, una de las familias de modelos de lenguaje (LLM) de código abierto más capaces, directamente en el dispositivo.

Exploraremos dos caminos principales:

  • El método sencillo:  Utilizando aplicaciones de la App Store que simplifican todo el proceso, ideal para la mayoría de los usuarios.
  • El método avanzado:  Para desarrolladores y entusiastas que deseen afinar y desplegar sus propias versiones personalizadas de Qwen.

Ambos métodos aprovechan las capacidades sin precedentes del iPhone 17 Pro, garantizando una experiencia fluida y potente que redefine lo que es posible hacer con un smartphone.

El iPhone 17 Pro

Primero debemos analizar el iPhone 17 Pro y el chip A19 Pro, el cual no solo ofrece mejoras en eficiencia, sino que integra una arquitectura diseñada específicamente para la IA.

Según los análisis y benchmarks iniciales, el A19 Pro incorpora aceleradores neuronales directamente en sus núcleos de GPU, permitiendo una ejecución de tareas de IA en el dispositivo mucho más rápida. Combinado con los  12 GB de RAM, el dispositivo puede manejar modelos de miles de millones de parámetros sin problemas, algo impensable hace solo unos años.

Rendimiento esperado: Tokens por segundo

El rendimiento de un LLM se mide a menudo en tokens por segundo (t/s), que representa la velocidad a la que el modelo genera texto. Gracias al chip A19 Pro, el iPhone 17 Pro muestra un rendimiento excepcional. El siguiente gráfico compara el rendimiento estimado de modelos Qwen en el iPhone 17 Pro frente a un predecesor, el iPhone 15 Pro, basándose en datos de herramientas de despliegue como ExecuTorch y Cactus.

Como muestra el gráfico, el iPhone 17 Pro no solo mejora el rendimiento, sino que lo duplica en algunos casos. Motores de inferencia optimizados como Cactus pueden alcanzar velocidades de 60-70 t/s  para un modelo como Qwen3-0.6B, una velocidad que se siente instantánea en una conversación . Esto abre la puerta a aplicaciones de IA conversacional complejas y de respuesta rápida, todo ello de forma 100% local y privada.

Método 1: PocketPal AI

Para la gran mayoría de usuarios que desean experimentar con Qwen sin complicaciones técnicas, la mejor opción es utilizar una aplicación dedicada de la App Store. PocketPal AI  se destaca como una de las más robustas y fáciles de usar.

PocketPal AI es una aplicación gratuita y de código abierto que te permite descargar y ejecutar LLMs en formato GGUF directamente en tu iPhone, con integración con el hub de Hugging Face para un acceso sencillo a miles de modelos.

Instalar Qwen con PocketPal AI:

  1. Instalar la aplicación: Busca «PocketPal AI» en la App Store y descárgala. Es una aplicación gratuita que valora la privacidad, ya que no recopila datos del usuario.
  2. Explorar y descargar modelos: Abre PocketPal. La aplicación tiene una sección de «Modelos» con una función de búsqueda integrada con Hugging Face. Esto te permite buscar modelos en formato GGUF, que es un estándar para ejecutar LLMs localmente.
  3. Encontrar un modelo Qwen: En la barra de búsqueda de modelos, escribe Qwen GGUF. Verás una lista de diferentes versiones y tamaños. Para empezar, te recomendamos un modelo de tamaño moderado, como Qwen2.5-1.5B-Instruct-GGUF o similar. Los modelos más pequeños se descargan más rápido y consumen menos recursos, siendo ideales para un primer contacto. Según la comunidad, PocketPal ya soporta modelos Qwen 2.5 y Qwen 3.
  4. Iniciar una conversación: Una vez que el modelo se haya descargado, aparecerá en tu lista de modelos locales. Simplemente selecciónalo para iniciar un nuevo chat. ¡Listo! Ahora puedes conversar con Qwen de forma totalmente offline, privada y sin coste por uso.

Otras aplicaciones como Locally AI también ofrecen una funcionalidad similar y son una excelente alternativa si deseas explorar otras interfaces.

Método 2: Unsloth y ExecuTorch

Si eres un desarrollador o un entusiasta que desea un control total, como afinar (fine-tuning) un modelo Qwen con tus propios datos o desplegar una versión específica, el camino a seguir es a través de herramientas de desarrollo como Unsloth y ExecuTorch de PyTorch.

Este método es considerablemente más complejo y requiere un Mac, una cuenta de desarrollador de Apple (de pago para dispositivos físicos) y conocimientos básicos de Python y línea de comandos.

El siguiente tutorial se basa en la excelente guía proporcionada por Unsloth AI.

Paso 1: Afinar y exportar el modelo

El primer paso no se realiza en tu Mac, sino en la nube, utilizando un notebook de Google Colab gratuito proporcionado por Unsloth. Este proceso prepara el modelo para que sea eficiente en el móvil.

  1. Abrir el Notebook:  Accede al notebook de Colab para despliegue en móviles. Unsloth soporta Qwen3, Llama3, Gemma3 y más. Acceder a los Notebooks de Unsloth
  2. Entrenamiento y Cuantización:  El notebook utiliza una técnica llamada Quantization-Aware Training (QAT). Esto reduce el tamaño del modelo y optimiza su velocidad, minimizando la pérdida de precisión.
  3. Exportar a .pte:  Al finalizar el proceso, obtendrás dos archivos cruciales: un archivo de modelo como qwen3_0.6B_model.pte (de unos 472 MB) y un archivo tokenizer.json. Estos son los archivos que desplegarás en tu iPhone.

Paso 2: Configurar el entorno en macOS

Ahora, en tu Mac, necesitas preparar el entorno de desarrollo.

1. Instalar Xcode:  Descarga e instala Xcode 15 o superior desde la Mac App Store.

2. Instalar herramientas de línea de comandos:  Abre la Terminal y ejecuta

xcode-select --install

3. Aceptar Licencia:  Ejecuta

sudo xcodebuild -license accept

4. Configurar Cuenta de Desarrollador: En Xcode, ve a Settings > Accounts y añade tu Apple ID. Si aún no lo has hecho, inscríbete en el Apple Developer Program (de pago) para poder instalar la app en tu iPhone físico.

Paso 3: Desplegar en el iPhone 17 Pro

Este es el paso final donde todo se une.

1. Obtener la App de Demo: Clona el repositorio de ExecuTorch y abre el proyecto de ejemplo para iOS, que se encuentra en apple/etLLM.xcodeproj.

2. Conectar tu iPhone: Conecta tu iPhone 17 Pro al Mac con un cable USB y selecciona «Confiar en este ordenador» en el teléfono.

3. Configurar la Firma del Proyecto

  • En Xcode, selecciona el proyecto etLLM.
  • Ve a la pestaña Signing & Capabilities.
  • Marca «Automatically manage signing» y selecciona tu equipo de desarrollador.
  • Importante:  Cambia el Bundle Identifier a algo único (ej. com.tunombre.etLLM) para evitar conflictos.

4. Añadir Capacidad de Memoria:  En la misma pestaña, haz clic en + Capability y añade  «Increased Memory Limit». Esto es esencial para que el LLM tenga suficiente RAM para funcionar.

5. Activar Modo Desarrollador en el iPhone

  • Ve a Ajustes > Privacidad y seguridad > Modo de desarrollador en tu iPhone y actívalo. El teléfono se reiniciará.

6. Compilar y Ejecutar:  En Xcode, selecciona tu iPhone 17 Pro como destino y pulsa el botón de Play (▶️). La primera vez podría fallar mientras se configuran los perfiles. Vuelve a intentarlo.

7. Transferir los Archivos del Modelo: 

  • Una vez que la app etLLM esté instalada y ejecutándose en tu iPhone, abre Finder en tu Mac.
  • Selecciona tu iPhone en la barra lateral y ve a la pestaña «Archivos».
  • Expande la app etLLM y arrastra tus archivos .pte y tokenizer.json a esa carpeta.

8. Abre la app etLLM en tu iPhone, carga el modelo y el tokenizador desde la interfaz, y comienza a chatear con tu LLM personalizado.

Comparativa de métodos y modelos

La elección del método y del modelo depende de tus necesidades. Aquí tienes una tabla comparativa para ayudarte a decidir.

Tabla comparativa de métodos de despliegue

MétodoFacilidad de UsoFlexibilidadRequisitosCoste
PocketPal AI★★★★★ (Muy fácil)★★★☆☆ (Limitado a modelos GGUF)Solo el iPhoneGratis
MLC Chat★★★★☆ (Fácil)★★★★☆ (Permite añadir modelos, pero es complejo)Solo el iPhone (para uso básico)Gratis
Unsloth + ExecuTorch★☆☆☆☆ (Muy difícil)★★★★★ (Control total, fine-tuning)Mac, cuenta de desarrollador de pago, conocimientos técnicosCoste de la cuenta de desarrollador (~$99/año)

Modelos Qwen recomendados para el iPhone 17 Pro

  • Qwen3-0.6B / Qwen2.5-1.5B:  Ideales para un equilibrio entre velocidad y capacidad. Perfectos para chat general, resúmenes y tareas sencillas. Su bajo consumo de recursos garantiza un rendimiento muy rápido.
  • Qwen3-4B:  Un modelo más potente que ofrece un razonamiento mejorado y mayor coherencia. Gracias a los 12 GB de RAM del iPhone 17 Pro, este modelo funciona cómodamente, aunque con una velocidad de generación ligeramente inferior a los modelos más pequeños.
  • Qwen3-Coder: Si tu interés es la generación de código, las variantes «Coder» de Qwen están específicamente entrenadas para ello y funcionan sorprendentemente bien en el dispositivo.

Tu asistente de IA

La convergencia del hardware del iPhone 17 Pro y los ecosistemas de software como PocketPal, MLC LLM y ExecuTorch ha hecho que la ejecución de LLMs de alto rendimiento como Qwen en un dispositivo móvil sea una realidad práctica y emocionante en 2026.

Para la mayoría, el camino más recomendable es empezar con una aplicación como PocketPal AI por su simplicidad y acceso inmediato a una amplia gama de modelos. Para los desarrolladores y aquellos que buscan la máxima personalización, el flujo de trabajo de Unsloth y ExecuTorch ofrece un poder sin precedentes, permitiendo la creación de experiencias de IA verdaderamente a medida.

Independientemente del camino que elijas, el resultado es el mismo: un asistente de IA potente que vive en tu bolsillo, funciona sin conexión, respeta tu privacidad al 100% y está siempre listo para ayudarte.

Preguntas frecuentes sobre Qwen en iPhone 17 Pro

¿Se puede ejecutar Qwen offline en iPhone?
Sí. Con aplicaciones como PocketPal AI o mediante ExecuTorch es posible ejecutar Qwen completamente offline.
¿Qué modelo Qwen es mejor para móvil?
Qwen3-0.6B y Qwen2.5-1.5B ofrecen el mejor equilibrio entre velocidad y capacidad.
¿Cuántos tokens por segundo alcanza?
En modelos pequeños optimizados puede alcanzar entre 60 y 70 tokens por segundo.
¿Necesito cuenta de desarrollador?
Solo si utilizas el método avanzado con ExecuTorch. Para PocketPal no es necesario.
¿Es seguro ejecutar LLM en el iPhone?
Sí. Al ejecutarse localmente no se envían datos a servidores externos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio