Repositório dedicado à análise e documentação de Modelos de Linguagem open-source, com receitas práticas para seu uso responsável.
Modelos leves, otimizados para rodar localmente em dispositivos com recursos computacionais limitados.
🤖 Nome do Modelo | 🧮 Parâmetros | 📋 Tarefas Comuns | ✍️ Descrição | 🔗 Link |
---|---|---|---|---|
Cerebras GPT | 111M, 3B | - | Eficiência em termos de computação. | - |
DCLM | 1B | Dedução lógica | Raciocínio de senso comum. | - |
Qwen2 | 500M, 1B, 7B | - | Escalável e de baixo custo de hardware. | - |
LLaMA 3.1 | 8B | Multitarefa | Potência, mas não é tão leve. | - |
LaMini GPT | 775M, 2B | Multilinguagem | Acompanhamento de instruções. | - |
MiniCPM | 1B, 4B | - | Desempenho equilibrado. | - |
Mistral Nemo | 12B | Tarefas Complexas de NLP | Potência, mas não é tão leve. | - |
OpenELM | 270M, 3B | Multitarefa | Eficiência energética. | - |
Phi-3.5 | 4B | Multilinguagem | Longo comprimento de contexto. | - |
Pythia | 160M, 3B | Geração de Código | - | - |
Raposa | 1.6B | Aplicativos móveis | Velocidade otimizada para aplicativos móveis. | - |
TinyLama | 1B | Aplicativos móveis | Eficiente para aplicativos móveis. | - |
Modelos grandes e avançados, projetados para resolver problemas complexos com grande capacidade de generalização.
🤖 Nome do Modelo | 🧮 Parâmetros | 📋 Tarefas Comuns | ✍️ Descrição | 🔗 Link |
---|---|---|---|---|
Alpaca | - | - | - | - |
BERT | - | - | - | - |
BLOOM | - | - | - | - |
Falcon | - | - | - | - |
GPT-NeoX | - | - | - | - |
OPT | - | - | - | - |
Modelos desenvolvidos especificamente para a língua portuguesa, focando em aplicações no Brasil.
🤖 Nome do Modelo | 🧮 Parâmetros | 📋 Tarefas Comuns | ✍️ Descrição | 🔗 Link |
---|---|---|---|---|
Sabiá-2 | - | - | - | - |
Contribuições são bem-vindas! Siga os passos abaixo para colaborar:
- Faça um fork do repositório;
- Modifique o que desejar e crie um pull request;
- Detalhe o pull request. Descreva suas alterações.
Este projeto é licenciado sob a MIT License.