Hosting Ollama

Despliega Ollama en la nube de Kamatera para obtener IA privada de nivel empresarial.

No tienes que comprometer rendimiento ni privacidad. La combinación de la gestión intuitiva de modelos de Ollama y la infraestructura cloud confiable de Kamatera ofrece la base perfecta para la próxima generación de herramientas empresariales impulsadas por IA.

 

 

Lleva tus Large Language Models (LLMs) de la experimentación local a infraestructura lista para producción, con total privacidad y hardware de alto rendimiento en Kamatera.

Ollama ES
  • Los CPUs de alta frecuencia y las configuraciones de RAM personalizables de Kamatera aseguran que tus modelos respondan al instante, ofreciendo una experiencia fluida de chat y API.
  • En IA, tus datos son tu activo más valioso. Alojar Ollama en tu propio VPS de Kamatera garantiza que tus prompts y datos propietarios nunca salgan de tu red privada.
  • Tu hardware puede crecer con tus necesidades de IA. En Kamatera, puedes escalar recursos al instante para manejar modelos más grandes o más usuarios simultáneos.
  • Con la red backbone de alta velocidad de Kamatera, conecta tu LLM privado a tus aplicaciones web y herramientas internas de manera segura desde cualquier parte del mundo, con centros de datos en cuatro continentes.

Calculadora de precios

+ Agregar almacenamiento

El tráfico adicional cuesta sólo $0,01 por GB
El almacenamiento adicional cuesta sólo $0,05 por GB al mes.
Los servidores por hora se facturan por minuto

$12,00 /Hora

Centros de Datos Globales

¿Listo para comenzar? Comienza HOY tu período de prueba gratuito de 30 días Comenzar

Preguntas frecuentes

¿Qué es Ollama?

Ollama es un framework de código abierto diseñado para ejecutar LLMs localmente o en servidores privados. Simplifica la descarga, gestión e interacción con modelos como Llama 3 y Mistral mediante una interfaz de línea de comandos y una API local.

¿Cuáles son los requisitos mínimos del sistema para desplegar Ollama?

Para ejecutar Ollama sin problemas, tu sistema debe contar con uno de los siguientes sistemas operativos:
Linux: Ubuntu 18.04 o posterior
macOS: macOS 11 Big Sur o posterior

RAM
8 GB de RAM como mínimo recomendado para ejecutar modelos 3B
16 GB de RAM para manejar modelos 7B
Al menos 32 GB de RAM para modelos 13B

Espacio en disco
Al menos 12 GB para instalar los modelos base de Ollama. Necesitarás espacio adicional para almacenar los datos de los modelos, que varía según el tamaño del modelo que elijas.
50 GB de espacio libre garantizan que no te quedes sin almacenamiento al recopilar varios modelos o datasets.

Para requisitos del sistema más detallados, consulta la documentación oficial de Ollama.

¿Cuáles son los casos de uso comunes de Ollama?

La principal fortaleza de Ollama es permitir el procesamiento de IA seguro y offline, lo cual es crucial para manejar datos sensibles o propietarios en sectores como finanzas y salud. Al ejecutar los modelos de lenguaje grandes completamente en sistemas privados, los usuarios eliminan los riesgos de cumplimiento asociados con el envío de datos a APIs de terceros. Este despliegue local también acelera enormemente el flujo de desarrollo, permitiendo a los ingenieros probar modelos rápidamente, refinar prompts y iterar sobre funciones impulsadas por IA sin depender de infraestructura cloud externa ni enfrentar latencia de red.

Otro uso clave es la especialización multi-modelo y la experimentación rápida. Ollama facilita la descarga y despliegue simultáneo de múltiples modelos especializados y ligeros. Esto es ideal para construir agentes de IA sofisticados donde diferentes modelos manejan tareas específicas – por ejemplo, uno para traducir código y otro para resumir contenido. Esta capacidad reduce la barrera para que investigadores y entusiastas exploren y optimicen el rendimiento de los últimos modelos open source directamente desde su máquina local.

¿Puedo probar la infraestructura de Kamatera grátis?

Kamatera ofrece un período de prueba gratuito de 30 días. Esta prueba gratuita ofrece servicios por valor de hasta $100. Después de registrarte, puedes utilizar la consola de administración para implementar un servidor y probar nuestra infraestructura. Puedes seleccionar un centro de datos, sistema operativo, CPU, RAM, almacenamiento y otras preferencias del sistema.

¿Qué métodos de pago aceptan?

Nuestro sistema acepta tarjetas de crédito/débito emitidas por tu sucursal bancaria local a nombre del titular de la tarjeta. También aceptamos pagos a través de PayPal.

¿Se utilizarán mis datos de Ollama para entrenar otros modelos?

No. Este es el principal beneficio de alojar Ollama en Kamatera. A diferencia de los servicios de IA públicos, tu instancia es completamente privada. Tus prompts, datos y resultados de los modelos permanecen en tu servidor y nunca se usan para entrenar modelos externos.

¿Puedo aumentar o disminuir las especificaciones de mi servidor?

Sí. Una de las funciones principales de Kamatera es el escalado instantáneo. Puedes ajustar vCPU, RAM y almacenamiento al instante desde el panel de gestión para adaptarte a las necesidades cambiantes de tu despliegue en Alpine, asegurando que solo pagues por lo que realmente usas.