Cómo desplegar Ollama con Nvidia para Inteligencia Artificial

Índice de contenidos

Ollama es una plataforma diseñada para ejecutar modelos de inteligencia artificial de forma local, ofreciendo una alternativa potente y eficiente sin depender de la nube. Al combinar Ollama con GPUs Nvidia, se maximiza el rendimiento en el entrenamiento e inferencia de modelos de IA, acelerando procesos y reduciendo el consumo de recursos. En este artículo, te explicamos cómo desplegar Ollama con Nvidia paso a paso, optimizando su integración para proyectos avanzados de inteligencia artificial.

La inteligencia artificial está transformando el panorama empresarial a un ritmo sin precedentes, convirtiéndose en una herramienta esencial para impulsar la eficiencia, la innovación y la ventaja competitiva. En 2025, las empresas enfrentan retos cada vez más complejos, como la necesidad de procesar grandes volúmenes de datos en tiempo real, optimizar sus operaciones y ofrecer experiencias personalizadas a sus clientes. La IA no solo automatiza tareas rutinarias, sino que también permite una toma de decisiones más estratégica y basada en datos, redefiniendo los modelos de negocio tradicionales

En este contexto, estoy emocionado de anunciar que voy a desplegar un entorno Ollama sobre Rocky Linux 9, utilizando una tarjeta Nvidia L4. Este proyecto busca aprovechar el poder de la IA generativa para ofrecer soluciones avanzadas que puedan integrarse directamente en procesos empresariales críticos. Desde la personalización de experiencias hasta la optimización de recursos, este entorno promete ser una herramienta clave para demostrar cómo la IA puede transformar operaciones cotidianas y abrir nuevas oportunidades para las empresas

La combinación de Rocky Linux 9 y hardware especializado como la Nvidia L4 garantiza un rendimiento robusto y escalable, ideal para manejar modelos de IA de última generación. Este despliegue no solo es una demostración técnica, sino también una apuesta por el futuro de las empresas que buscan mantenerse competitivas en un mundo cada vez más digitalizado.

Instalación en SoaxNG de nuestra instancia

  • S.O: Rocky 9
  • Sabor: 14vCPU y 58GB Ram
  • Disco: 600GB Disco Flash
  • GPU: Tarjeta L4 nvidia
  • IP red Externa (pública)

Vamos a utilizar desde nuestra plataforma de nube pública una de nuestras imágenes Rocky9 optimizada para entornos con GPU ya que lleva ya integrados los gráficos de Nvidia para facilitarnos la puesta en marcha y compatibilidad.

Crear instancia en Soax de Ollama

Para esta prueba iremos a nuestra sección de GPU y generaremos una instancia dedicada con una tarjeta L4 en un host de 64GB Ram físico (58GB RAM utilizable por nuestra instancia).

Una vez que ejecutemos esta instancia en unos simples pasos podremos ver nuestra instancia preparada y lista para trabajar:

Configuración  de S.O

Lo primero que vamos a hacer es deshabilitar Selinux en nuestro sistema para evitar futuros problemas. Para ello ejecutamos el siguiente comando que lo deshabilitara tanto actualmente como en arranque:

sudo sed -i «s/SELINUX=enforcing/SELINUX=disabled/» /etc/sysconfig/selinux &&
sudo sed -i «s/SELINUX=enforcing/SELINUX=disabled/» /etc/selinux/config &&
setenforce 0

A continuación, hacemos un update de los paquetes de nuestro sistema. Añadimos repositorio oficial de Docker y instalaremos los paquetes necesarios.

sudo dnf update -y
sudo dnf config-manager –add-
repo https://download.docker.com/linux/centos/docker-ce.repo
sudo dnf install -y docker-ce

Instalación y configuración Drivers nvidia para Docker

Recordamos que la imagen que hemos utilizado ya viene cargada con los drivers de Nvidia. Vamos a hacer una configuración para instalar los drivers de container debido a que vamos a instalar nuestro ollama sobre contenedores y necesita estos drivers para manejar la GPU.

  1. sudo curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
  2. sudo dnf install -y nvidia-container-toolkit
  3. sudo nvidia-ctk runtime configure –runtime=docker –set-as-default
  4. sudo systemctl daemon-reload
  5. sudo systemctl restart Docker

Instalación de los servicios

Para facilitar la instalación de nuestro primer entorno de IA hemos dejado un Docker compose con una variedad de servicios a instalar que nos permitirá tener un stack de desarrollo en nuestros primeros pasos con la IA. Para ello instalaremos:

  1. Ollama
  2. Open-webui
  3. Code-Server
  4. JupyterLab
  5. Nginx Proxy Manager

Todos estos servicios podéis quitarlos modificando el stack que dejamos a continuación.

docker compose -f stack.yml up -d

version: ‘3.8’
services:
# Servicio principal de Ollama con soporte GPU
ollama:
image: ollama/ollama
container_name: ollama
ports:
– «11434:11434»
volumes:
– ollama_models:/root/.ollama
networks:
– ai-network
deploy:
resources:
reservations:
devices:
– driver: nvidia
count: 1
capabilities: [gpu]
runtime: nvidia
restart: unless-stopped
# Interfaz Web para Ollama (Open WebUI)
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
– «3000:8080»
environment:
– OLLAMA_BASE_URL=http://ollama:11434
volumes:
– open-webui:/app/backend/data
depends_on:
– ollama
networks:
– ai-network
restart: unless-stopped
# Entorno de desarrollo VS Code
code-server:
image: codercom/code-server:latest
container_name: code-server
ports:
– «8080:8080»
environment:
– PASSWORD=T3mp0r4l2025. # Cambia esto!
volumes:
– code-server:/home/coder/project
networks:
– ai-network
restart: unless-stopped
# JupyterLab para experimentación
jupyter:
image: jupyter/datascience-notebook:latest
container_name: jupyter
ports:
– «8888:8888»
volumes:
– jupyter-data:/home/jovyan/work
networks:
– ai-network
restart: unless-stopped
# Nginx Proxy Manager con Let’s Encrypt
proxy:
image: jc21/nginx-proxy-manager:latest
container_name: nginx-proxy
ports:
– «80:80» # HTTP
– «443:443» # HTTPS
– «81:81» # Admin UI
volumes:
– proxy_data:/data
– proxy_letsencrypt:/etc/letsencrypt
networks:
– ai-network
environment:
DB_MYSQL_HOST: «proxy-db»
DB_MYSQL_PORT: 3306
DB_MYSQL_USER: «d4t4b4s4Us3r»
DB_MYSQL_PASSWORD: «d4t4b4s4P4ss»
depends_on:
– proxy-db
restart: unless-stopped
# Base de datos para Nginx Proxy Manager
proxy-db:
image: jc21/mariadb-aria:latest
container_name: proxy-db
volumes:
– proxy_db:/var/lib/mysql
networks:
– ai-network
environment:
MYSQL_ROOT_PASSWORD: «d4t4b4s4P4ss»
MYSQL_DATABASE: «d4t4b4s4P4ss»
MYSQL_USER: «d4t4b4s4Us3r»
MYSQL_PASSWORD: «d4t4b4s4P4ss»
restart: unless-stopped
volumes:
ollama_models:
open-webui:
code-server:
jupyter-data:
proxy_data:
proxy_letsencrypt:
proxy_db:
networks:
ai-network:
driver: bridge

Una vez que hemos ejecutado nuestro Docker compose podremos ir a nuestra instancia y comprobar como se están ejecutando los servicios con el siguiente comando:
Docker ps -a

En unas semanas publicaremos la segunda parte de este artículo, donde configuraremos el entorno web, parametrizaremos Nginx y daremos nuestros primeros pasos con la integración. ¡No te lo pierdas!

Si te ha gustado, compártelo en redes sociales

Artículos relacionados

Categorías

Joan Aniorte

CTO

Joan ve la tecnología como una palanca con la que accionar el acceso al conocimiento y posibilitar la comunicación entre personas en tiempo real. Desde sus inicios en Aire, cuando estaba en el último curso de universidad, se ha esforzado por superar los retos técnicos a los que se ha ido enfrentando, con la motivación de aprender y llegar al fondo de cada proyecto. Como CTO Staff, aplica esta experiencia, su visión, empuje y mimo por los detalles a distintas áreas de trabajo. Del proyecto destaca su vocación tecnológica y su equipo, por su calidad humana y su enfoque de resolución del problema.

Manuel Rivera

CHR & Integration Officer

Para Manuel Rivera la tecnología y las personas se relacionan íntimamente y las ve como motor de cambio. Su pasión por las telecomunicaciones le llevó a estudiar Ingeniería en esta área. Su carrera profesional se ha desarrollado tanto en posiciones de ingeniería, operaciones comerciales así como en Recursos Humanos, donde ha estado focalizado en la transformación de estructuras organizativas tecnológicas tanto en el mercado local como a nivel europeo. Aterriza en Aire como Director de Recursos Humanos y Transformación, para aportar su visión y experiencia a la hora de enfrentar los numerosos retos que tienen las organizaciones en un momento como el actual.

Rosa Ronda

CFO

Su trabajo en distintas posiciones en empresas tecnológicas la han llevado a estar siempre rodeada de ingenieros y a respirar ese ambiente techie en el día a día. Esa experiencia en el sector, junto con su conocimiento y una visión de la función financiera estratégica, es lo que aporta Rosa a Grupo Aire. Así como mejores prácticas y soporte a los accionistas y equipo directivo para la toma de decisiones. Todo ello con el objetivo de llevar a la compañía hacia las metas propuestas en el plan de negocio.

De Aire destaca su capacidad de innovación y desarrollo; el alto volumen de soluciones propias y lo arraigado que está el proyecto en el sector.

Zigor Gaubeca

CIO

A pesar de criarse en un pequeño pueblo con menor facilidades de acceso a la tecnología, para Zigor no fue una barrera el sumergirse en el sector tecnológico desde muy joven, comenzando después la carrera de Ingeniería Informática con la intención de seguir profundizando sobre todo lo que había ido aprendiendo de forma autodidacta a lo largo de los años.

Su sueño de dedicarse al mundo de la conectividad se hizo realidad al llegar a la compañía, donde sintió el proyecto como suyo desde el primer momento, compartiendo triunfos y aprendiendo de los fracasos.

Con un gran sentido de equipo, Zigor trabaja diariamente para ayudar en la toma de decisiones aportando su visión y experiencia, asumiendo todos los retos que pueda encontrar en el camino y manteniendo ese ADN de la compañía en el que la tecnología, el trabajo en equipo y la innovación son esenciales.

Santi Magazù

Director General

Santi Magazù tiene más de 20 años de experiencia en el sector de telecomunicaciones y de servicios TI, habiendo ocupado puestos directivos en multinacionales como Telefónica, donde desempeñó varios cargos, como director de ingeniería de servicios TI para España y director comercial de Cloud Computing para todo el Grupo. También ha trabajado como director de Marketing en el operador regional Grapes, y como CEO y COO en startups de tecnología, entre ellas en PlayGiga, la primera compañía adquirida por Facebook en España. Inició su carrera como consultor de estrategia en Monitor Co., actualmente parte de Deloitte.

En cuanto a su formación, es ingeniero industrial por el Politécnico de Milán y MBA por INSEAD (Francia).

En Aire es Director General.

Miguel Tecles

Consejero

Curiosidad y pasión por la tecnología son el motor imparable de una carrera profesional que empezó, nada menos que a los 4 años, arreglando el cable roto de una plancha que había dejado de funcionar. Desde ese precoz impulso, la biografía de Miguel Tecles está escrita con cables de colores, líneas de programación, ondas de radio, señales de internet cuando casi no existía, muchos voltios y algún calambre inesperado.

Hoy, con el cargo de consejero en Aire, Miguel Tecles es uno de sus principales pilares.

Nadie mejor que él personifica el compromiso de la compañía con sus clientes: llevar la tecnología siempre al siguiente nivel, haciendo lo que nadie hace, como nadie lo hace y llegando hasta donde nadie llega, para ofrecer servicios que generen valor para todos.

Raúl Aledo

Presidente

Apasionado de la tecnología y el funcionamiento interno de todo lo que le rodeaba desde muy temprana edad, Raúl empezó sus primeros pinitos en el mundo de la electrónica y la programación a los 14 años, cuando hizo su primer programa de facturación, contabilidad y gestión de almacén para la empresa familiar.

Con ello y la llegada de internet, comenzó su dedicación al mundo de las telecomunicaciones, estudiando Ingeniería Informática, donde conoció a su primer socio, Miguel Tecles, a través de lo que fue una de las primeras redes sociales, IRC. Tras más de dos años trabajando juntos y mejorando su know-how, conocieron a Emilio Gras, el tercer socio de la actual compañía, comenzando juntos en 1996 su primer proyecto de ServiHosting, e iniciando un camino que los llevaría hasta donde están hoy.

Raúl es pilar fundamental en Aire, no solo a través de su experiencia, sino a través de los valores que aporta e implementa en la compañía, como la visión de futuro, aceptando retos y alcanzando metas; su compromiso con cada detalle y el sentimiento de equipo, fomentándolo día a día.

Javier Polo

CEO

Con más de 20 años de trayectoria en los sectores de las telecomunicaciones y la tecnología, Javier tiene la firme convicción de que la tecnología debe resolver problemas reales y generar ventajas competitivas con resultados tangibles para el negocio.

Ha ocupado posiciones ejecutivas relevantes en compañías como Amena y Orange, donde lideró áreas de planificación estratégica, marketing y go-to-market. Fue CEO de PlayGiga, la primera startup tecnológica española adquirida por Meta (Facebook). Antes de incorporarse como CEO de Aire, dirigió el Grupo AIA, empresa especializada en inteligencia artificial, con foco en analítica avanzada y algoritmos predictivos.

Ha sido también consejero y asesor en múltiples compañías tecnológicas respaldadas por fondos de venture capital y private equity, en sectores como cloud, ciberseguridad y blockchain.

Previamente, desarrolló su carrera en el ámbito de la consultoría estratégica como Principal en Monitor Company, donde asesoró a grandes corporaciones en procesos de crecimiento, internacionalización y eficiencia operativa.

logo aire ventana azul
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.