Introducción
La inteligencia artificial (IA) se ha consolidado como una herramienta imprescindible en múltiples ámbitos, desde la automatización hasta la programación y el análisis de datos. Sin embargo, el acceso a modelos avanzados como ChatGPT suele depender de plataformas en la nube, lo que implica preocupaciones sobre la privacidad, la conexión a Internet y el control de los datos. En este artículo, te guiaremos paso a paso para que puedas instalar y ejecutar un modelo de IA desarrollado por Meta directamente en tu PC, de forma local, gratuita y segura.
Aprenderás a utilizar Ollama, un framework open source que permite descargar y correr modelos potentes como LLama 2, todo desde la comodidad de una terminal o consola. Este enfoque no solo mejora la privacidad y el rendimiento offline, sino que también abre un abanico de posibilidades para personalizar la IA a tus necesidades técnicas y profesionales.
¿Qué es Ollama y por qué utilizar IA en local?
Definición de Ollama
Ollama es una plataforma desarrollada para ejecutar modelos de lenguaje de inteligencia artificial localmente en ordenadores personales. Se basa en proyectos open source como LLama, promovidos por Meta, que ofrecen versiones avanzadas de modelos de lenguaje entrenados sin depender de servicios externos.
Ventajas de ejecutar IA en local
- Privacidad total: todos los datos permanecen en tu equipo, evitando fugas de información o uso indebido por terceros.
- Funcionamiento sin conexión: la IA está disponible en cualquier momento, incluso sin acceso a Internet.
- Personalización: adaptas el modelo para resolver tareas específicas sin restricciones impuestas por proveedores.
- Mayor control: evitas limitaciones que sistemas en la nube aplican por políticas o ética predefinidas.
Desventajas y consideraciones
- Alta demanda de recursos: necesitarás una buena GPU, almacenamiento y memoria para gestionar modelos pesados.
- Velocidad: la respuesta puede ser más lenta que en servidores optimizados como los de OpenAI.
- Complejidad técnica: el entrenamiento y ajuste fino son procesos que requieren conocimientos avanzados.
- Limitaciones creativas: la IA local puede no estar tan actualizada ni disponer de las mismas capacidades que modelos en la nube.
Requisitos previos para instalar Ollama en tu PC
Antes de comenzar con la instalación, asegúrate de que tu equipo cumple con los siguientes requisitos mínimos:
- Sistema operativo: Windows 10/11 (preferiblemente con WSL instalado), macOS o distribuciones comunes de Linux.
- Procesador: CPU moderna de mínimo 4 núcleos, idealmente con soporte para instrucciones avanzadas.
- GPU: NVIDIA con soporte para CUDA recomendada, especialmente para cargas de trabajo intensivas.
- Memoria RAM: al menos 16 GB para un rendimiento aceptable.
- Almacenamiento: mínimo 20 GB libres para modelos y software (modelos como LLama 2 pueden ocupar hasta 4 GB o más).
- Conexión a Internet: para descargar el software y los modelos inicialmente.
Paso 1: Descarga e instalación de Ollama
Acceder al repositorio oficial
Dirígete a la página oficial de Ollama Download. Aquí encontrarás versiones para Windows, Mac y Linux.
Descarga según tu sistema operativo
Selecciona la opción compatible con tu sistema:
- Windows: descarga el instalador ejecutable (.exe). Se recomienda usarlo junto con Windows Subsystem for Linux (WSL) para mayor estabilidad.
- MacOS: obtén el paquete para macOS compatibles.
- Linux: descarga la versión adecuada para tu distribución.
Proceso de instalación
- Ejecuta el archivo descargado y sigue las instrucciones del instalador.
- Es posible que la instalación tome varios minutos y no muestre notificación al finalizar.
- Tras completar, abre la terminal o consola de comandos de tu sistema.
Verificación de la instalación
- Ejecuta el comando
ollama --version
para comprobar la versión instalada. - Ejecuta
ollama help
para listar los comandos disponibles.
Paso 2: Gestión y descarga de modelos de IA
Lista de modelos disponibles
Ollama dispone de una librería amplia de modelos disponibles en Ollama Library. Desde modelos para lenguaje general hasta especializados en generación de código como CodeLlama.
Comandos para gestionar modelos
ollama list
: muestra los modelos instalados localmente.ollama pull <modelo>
: descarga un modelo específico desde el repositorio remoto al local.ollama run <modelo>
: ejecuta un modelo directamente, haciendo “pull” automático si no está instalado.ollama ps
: muestra los procesos activos relacionados con Ollama.
Descargando tu primer modelo: LLama 2
Te recomendamos empezar con LLama 2, el modelo estándar, por su buen equilibrio entre capacidad y tamaño (aproximadamente 3,8 GB). Ejecuta:
ollama run llama2
El comando detectará que no tienes el modelo local y comenzará la descarga automática. Ten en cuenta que requiere un buen espacio en disco y algo de paciencia.
Tabla comparativa de modelos populares para IA local en Ollama
Modelo | Tamaño | Especialidad | Última actualización | Recomendado para |
---|---|---|---|---|
LLama 2 | ~3.8 GB | Lenguaje general | 2024 | Usuarios generales, principiantes |
CodeLlama | ~3.8 GB | Programación (Python, Java, C++, etc.) | 2024 | Desarrolladores y programadores |
OLama 3.3 | ~43 GB | Alta capacidad general | 2024 | Usuarios avanzados con hardware potente |
Paso 3: Interacción básica con Ollama desde la terminal
Una vez instalado y con el modelo descargado, podemos empezar a interactuar directamente con la IA. Algunos comandos útiles:
ollama run llama2
– abre el prompt para comunicarte con el modelo.ollama create
– permite generar un nuevo modelo a partir de un archivo.ollama stop
– detiene el modelo activo.ollama rm <modelo>
– elimina modelos instalados.
Ejemplo:
ollama run llama2 > Hola, ¿cómo estás? AI: Hola, soy Yama, un modelo de lenguaje desarrollado por Meta. ¿En qué puedo ayudarte hoy?
Nota: Por defecto, muchos modelos suelen responder en inglés. Puedes indicarle explícitamente que prefieres respuestas en español para mayor comodidad.

Integración de IA local para programación con CodeLlama
Características principales
CodeLlama es un modelo optimizado para generar código en varios lenguajes: Python, Java, C++, PHP, Typescript y C#. Es ideal para desarrolladores que buscan un asistente que genere funciones o scripts desde la terminal.
Ejemplo práctico: Generar la secuencia de Fibonacci en Python
ollama run code-llama > Escribe una función en Python que genere los primeros 20 números de la secuencia de Fibonacci.
La IA responderá con un código funcional y explicativo, que podrás copiar y probar localmente en tu entorno de desarrollo, como Visual Studio Code.
Buenas prácticas y consejos para manejar Ollama
- Gestiona espacio en disco: elimina modelos que no uses para liberar espacio usando
ollama rm
. - Optimiza recursos: cierra los procesos en background con
ollama stop
para no saturar la memoria. - Aprende comandos básicos: ayuda a automatizar tareas y a trabajar con scripts.
- Protege tus datos: al trabajar en local reduces riesgos, pero sigue buenas prácticas de seguridad informática.
- Experimenta con modelos: prueba distintos modelos para identificar cuál se ajusta mejor a tus casos de uso.
¿Dónde encontrar soporte y más información?
La comunidad de Ollama dispone de recursos como foros, Discord y repositorios en GitHub para resolver dudas y compartir experiencias. Puedes unirte y participar para ampliar tus conocimientos y aportar a la mejora continua.
Recursos útiles:
Si quieres profundizar aún más en la instalación y uso de IA local, este video te será muy útil para acompañar el proceso paso a paso.
Preguntas frecuentes (FAQ)
¿Cómo activar la IA en la computadora?
Para activar la “Experiencia Generativa de Búsqueda” debes ingresar a labs.google.com/search. Una vez dentro, selecciona la opción “Cuando esta opción está activada, puede aparecer SGE al hacer búsquedas”. Luego haz clic en “Probar con un ejemplo” para ver cómo Google utiliza la IA. Este método aplica principalmente para servicios basados en la web, pero para IA local con Ollama basta su instalación.
¿Puedes ejecutar IA en tu propia PC?
Sí, es posible ejecutar modelos de IA localmente en tu computadora. Se recomienda una PC con al menos 1 TB de almacenamiento para manejar los modelos y el sistema operativo de forma adecuada. También es importante contar con buena memoria RAM y una GPU compatible para acelerar los procesos. No obstante, según las necesidades, puedes ajustar el hardware para optimizar rendimiento y capacidad.
¿Cuál es la mejor IA para descargar?
La elección depende de tus objetivos. LLama 2 es una excelente opción general para comenzar por su balance entre rendimiento y tamaño. Si te dedicas a programación, CodeLlama es ideal por su soporte a múltiples lenguajes. Otros modelos como OLama 3.3 son más potentes pero requieren hardware mucho más exigente. Revisa tamaños, fecha de actualización y objetivos para elegir el modelo que mejor se adapte.
¿Ollama funciona sin conexión a Internet?
Una vez instalado el software y descargados los modelos, Ollama puede funcionar totalmente offline, lo que es una gran ventaja cuando no se dispone de conexión estable o se desea mayor privacidad.
¿Puedo ejecutar varios modelos al mismo tiempo?
Depende de los recursos de tu equipo. Ollama permite iniciar múltiples modelos, pero si tu hardware no es lo suficientemente potente, el rendimiento podría verse afectado. Usa el comando ollama ps
para monitorizar los procesos activos.
¿Cómo actualizar mis modelos?
Para actualizar un modelo puedes eliminar la versión antigua con ollama rm <modelo>
y luego hacer un nuevo ollama pull <modelo>
. Así aseguras tener la última versión disponible.
¿Existen interfaces gráficas para Ollama?
Actualmente la interacción principal es por terminal, aunque hay proyectos comunitarios que desarrollan interfaces web para facilitar el uso visual. En el futuro, se espera que Ollama incorpore herramientas gráficas oficiales.

¿Qué otras aplicaciones tiene Ollama más allá del chat?
Además del uso conversacional, Ollama puede integrarse en scripts y programas mediante librerías en Python para automatización, desarrollo, generación y análisis de código, lo que lo hace útil para profesionales en múltiples áreas tecnológicas.
Palabras clave relacionadas y su relevancia
Inteligencia Artificial Local
Refiere al concepto de ejecutar modelos de IA directamente en tu equipo sin depender de servidores externos. Esto potencia la privacidad y autonomía sobre los datos y procesos.
Modelos Open Source
Se refiere a aquellos modelos de IA cuyo código y datos de entrenamiento están disponibles públicamente. Esto permite modificar, mejorar o adaptar según las necesidades del usuario.
LLama 2
Modelo de lenguaje desarrollado por Meta, libre para uso local. Ideal para usuarios que desean potencia y flexibilidad sin pagar licencias.
CodeLlama
Una variante del modelo LLama especializada en generación y análisis de código fuente, muy útil para programadores y desarrolladores que buscan asistencia automatizada.
Privacidad en IA
Aspecto crítico al usar IA, especialmente con datos sensibles. La IA local garantiza que ninguna información se envíe a servidores externos, minimizando riesgos de filtraciones.
Terminal / Consola
La interfaz principal para interactuar con Ollama, donde se ejecutan comandos para instalar, correr modelos y ver respuestas del asistente.
Hardware para IA
Incluye CPU, GPU, RAM y almacenamiento que determinan la capacidad para desplegar y correr modelos pesados localmente con rendimiento aceptable.
Python y Librerías de IA
Python es el lenguaje dominante en desarrollo de IA y automatización. Ollama se puede integrar mediante librerías para que tus proyectos utilicen la IA local en operaciones programáticas.
WSL (Windows Subsystem for Linux)
Una capa para correr entornos Linux dentro de Windows, recomendado para mejorar la compatibilidad y eficiencia de Ollama en sistemas Windows.
Conclusión
Trabajar con inteligencia artificial en local es el futuro para quienes buscan control, privacidad y personalización en sus procesos tecnológicos. Ollama, junto con modelos como LLama 2 y CodeLlama, nos permiten dar este salto de manera accesible, sin depender de servicios externos ni licencias costosas.
Si bien el camino requiere inversión en hardware y aprendizaje técnico, las ventajas superan ampliamente las limitaciones actuales. Además, la comunidad y ecosistema open source todavía están creciendo, por lo que el soporte y las herramientas seguirán mejorando.

¿Querés mantenerte actualizado con las últimas tendencias en automatización, inteligencia artificial y transformación digital? Visitá nuestro blog de Código6 y descubrí guías, casos de éxito y noticias relevantes para potenciar tu empresa. Ingresá al blog y explorá los recursos más recientes.
Leave A Comment