Ollama API

Execute modelos de linguagem localmente com Ollama

📋 Listar Modelos Disponíveis

Lista todos os modelos instalados no Ollama.

curl -X GET https://www.sqnaihub.com/ollama/api/tags

🤖 Gerar Texto (Chat)

Envia uma mensagem para um modelo e recebe a resposta.

curl -X POST https://www.sqnaihub.com/ollama/api/generate \\ -H "Content-Type: application/json" \\ -d '{ "model": "llama2", "prompt": "Por que o céu é azul?", "stream": false }'

💬 Chat Completo

Inicia uma conversa com histórico de mensagens.

curl -X POST https://www.sqnaihub.com/ollama/api/chat \\ -H "Content-Type: application/json" \\ -d '{ "model": "llama2", "messages": [ {"role": "user", "content": "Olá!"} ] }'

📥 Baixar Modelo

Baixa um modelo do Ollama (pode demorar alguns minutos).

curl -X POST https://www.sqnaihub.com/ollama/api/pull \\ -H "Content-Type: application/json" \\ -d '{"name": "llama2"}'

📚 Documentação Completa

Consulte a documentação oficial do Ollama para mais endpoints e opções.

https://github.com/ollama/ollama/blob/main/docs/api.md