Minhas aventuras usando uma IA localmente === Recentemente comecei a usar uma IA localmente com o [ollama](https://ollama.com/), após o pacote instalado por exemplo no Ubuntu ou em qualquer outro Linux mas conhecido faça apenas ```bash curl -fsSL https://ollama.com/install.sh | sh ``` de acordo com as instruções do próprio site. Após instalado podemos simplesmente rodar ```bash ollama run llma3 ``` se for aprimeira vez ele irá fazer o download do modelo "llma3" e abrirá o chat. Diverta-se. ## Configurando uma função fish para seu terminal conversar com você Caso tenha um fish configurado como seu terminal padrão, faça um arquivo de funções, irei chamar de `llama_run`, no endereço `$HOME/.config/fish/functions/llma_run.fis`. O conteúdo será ```fish function llama_run set -l __args $argv ollama run llama3 $__args end ``` Após reentrada no seu terminal ou usando o comando `exec $SHELL` pode simplesmente chamar a conversa com sua IA digitando ```bash llama_run Pode digitar diretamente qualquer coisa, se for pergunta lembre de usar \? ao invés de ? pura ``` Não há necessidade de aspas pois usamos `-l` como flag no set, isso armazena todo conteúdo digitado como um array concatenado. Mas se quiser uma pergunta longa basta abrir aspas triplas dessa forma ```bash llama_run """Pode começar a digitar vai escrevendo o que der na telha quantas linhas quiser, não se preocupe vai dando enter quando quaiser no final digite as três aspas """ ``` após o `ENTER` sue texto foi completamente enviado e ele começa a responder, se tiver chato na resposta é só fazer `ctrl+c` pra interromper a tagarelice. Uma coisainha legal é que pode passar um arquivo também, por exemplo ```bash llama_rua Me diga o que esse script faz\ $(cat algumscript.sh) ``` Eu usei a barra `\` para poder saltar linha sem iniciar o chat e fornecer o conteúdo do arquivo `algumscript.sh` via variável de comando `$()`. Achei essa dica super saudável, afinal você roda o modelo localmente e fornece pouca coisa às empresas que criam esses modelos. Claro que duarante o uso informações são passadas via internet e o próprio modelo faz requisições pra fornecer respostas, mas é melhor que tá alimentando diretamente o bing ou o gemini. Não esqueça de olhar os diversos [modelos](https://ollama.com/library) disponíveis no site do ollama!