Segurança & Inteligência Artificial
Ollama é uma ferramenta de código aberto que permite executar e gerenciar modelos de linguagem grande (LLMs) diretamente na sua máquina local. Isso significa que você pode usar modelos poderosos como o Llama 3 para gerar texto, traduzir idiomas e realizar outras tarefas complexas sem precisar depender de serviços em nuvem.
Llama3 é um modelo de linguagem grande (LLM) desenvolvido pela Meta AI, conhecido por sua capacidade de processar e entender a linguagem natural. Ele é treinado em uma enorme quantidade de dados de texto e código, o que permite que ele realize diversas tarefas, como: Geração de texto, Tradução de idiomas, Escrita criativa, Resposta a perguntas, Reconhecimento de imagens, Análise de sentimento, Codificação e muito mais... Mistral é um modelo de linguagem generativa de código aberto desenvolvido pela startup francesa Mistral AI. Ele se destaca por ser focado em aplicações de negócios, oferecendo recursos específicos para auxiliar empresas em diversas tarefas.Realize o Download e a instalação do Ollama
Execute o comando ollama para exibir todas as opções:
PowerShellPS C:\> ollama
Verifique se a porta 11434 está aberta:
PowerShellPS C:\> netstat -ano | findstr 11434
Abra o navegador e acesse: http://localhost:11434 ou http://127.0.0.1:11434 para confirmar se o serviço do Ollama foi iniciado com sucesso:
Liste os modelos disponíveis:
PowerShellPS C:\> ollama list
Para utilizar outros modelos como por exemplo o Llama3:70b ou Llama3:70b-text , execute os comandos:
PowerShellPS C:\> ollama run llama3:70b PS C:\> ollama run llama3:70b-text
🟢 Llama3:70b
🔵 Llama3:70b-text
Em resumo:
Considerações adicionais:
Links úteis:
Confirme se o modelo llama3:70b está disponível
PowerShellPS C:\> ollama list
Execute o comando abaixo para utilizar o modelo llama3:70b , em seguida informa o parâmetro /? para conhecer as opções disponíveis no modelo.
PowerShellPS C:\> ollama run llama3:70b >>> /?
Utilize os parâmetros disponíveis para explorar o modelo, exemplo:
PowerShell>>> /show >>> /show info
Agora basta interagir com o Llama3 para obter as respostas.
Para sair execute o comando /bye
PowerShell>>> Gere um script em Python3 com o texto "Ola Mistral" >>> /bye
GGUF , sigla para GPT-Generated Unified Format, é um formato de arquivo padronizado para armazenar grandes modelos de linguagem (LLMs) para inferência. Ele foi desenvolvido pela Hugging Face e oferece diversas vantagens, como:
Realize o download de um Modelo , exemplo: Mistral.
Crie um arquivo de texto chamado Modelfile no diretório onde você deseja executar o modelo.
No arquivo Modelfile, adicione a seguinte linha:
NotepadFROM ./nome_do_arquivo_GGUF.gguf
Entre na pasta onde você deixou o Modelo e o arquivo Modelfile e execute o comando:
PowerShellPS C:\Users\Marcos> cd .\Downloads\ PS C:\Users\Marcos\Downloads> ollama create Mistral -f .\Modelfile
Execute o comando abaixo para confirmar se o Modelo foi carregado com sucesso.
PowerShellPS C:\Users\Marcos\Downloads> ollama list
Para utilizar o modelo Mistral , execute o comando:
PowerShellPS C:\> ollama run Mistral