¡Modelos de IA locales impulsados por Ollama!
Escrito por:
Equipo de Código Snippets AI
Publicado el
10 oct 2024
¡Con nuestra última versión de nuestras aplicaciones de escritorio (v0.0.7) hemos integrado modelos locales de Ollama!
Los Modelos de Lenguaje de Código Abierto (LLMs) combinados con Ollama ofrecen a los desarrolladores una solución poderosa, flexible y centrada en la privacidad para la asistencia de codificación.
Aquí hay razones por las que deberías considerar usar estos LLMs locales en nuestras aplicaciones de escritorio:
Ejecutación local: Ejecuta modelos en tu máquina, asegurando la privacidad de los datos y acceso sin conexión.
Económico: Evita las tarifas de suscripción asociadas con asistentes de codificación de IA basados en la nube.
Amplio soporte de idiomas: Accede a modelos entrenados en varios lenguajes de programación y marcos de trabajo.
Impulsado por la comunidad: Benefíciate de mejoras y actualizaciones continuas de la comunidad de código abierto.
Fácil configuración: Nuestras aplicaciones de escritorio simplifican la gestión y el despliegue de modelos, gracias a nuestra integración directa con la documentación de Ollama.
Comenzando
Para usar nuestras nuevas funciones de IA locales, asegúrate de estar utilizando la última versión de las aplicaciones de escritorio v0.0.7
Iniciando un modelo local de Ollama
Selecciona Local desde el menú desplegable Proveedor de LLM en la pantalla de configuración del chat
Si no tienes Ollama configurado, simplemente haz clic en Descargar
Si ya tienes Ollama en tu sistema, ejecuta ollama serve en un terminal.
ollama serve
Luego se te mostrará la pantalla de modelos disponibles.
Si no tienes modelos instalados en tu sistema, busca un modelo que quieras usar en ollama.com y ejecuta el siguiente comando en un terminal:
ollama pull model_name
Después de que el modelo de Ollama haya sido descargado en tu sistema, ejecuta el siguiente comando en tu terminal.
ollama serve
Selecciona el modelo de Ollama que has descargado desde el menú desplegable.
Navega a la Selección de Modelo
Selecciona el modelo que deseas usar
¡Comienza a chatear con tu propio modelo de IA local!
Todas las funciones de IA en nuestras aplicaciones de escritorio son compatibles con los LLMs locales.
Usando múltiples modelos de IA en el mismo chat.
Gracias a nuestro increíble equipo de desarrollo ❤️ puedes usar una combinación de modelos locales y en la nube en el mismo chat, con todo el contexto de chat mantenido a través de tus mensajes.
¡Esto te proporciona una experiencia profesional de codificación con IA, mejorando tu depuración, refactorización y capacidades de compartir fragmentos de código!
¡Prueba Ollama hoy en nuestras aplicaciones de escritorio!
Inscribe a tu equipo de desarrollo para Code Snippets AI hoy y transforma la manera en que interactúas con el código. Abraza el futuro de la codificación, donde la IA no es solo una herramienta, sino un socio en tu viaje de desarrollo.