O seu copiloto de desktop inteligente e invisível.
Funcionalidades • Instalação • Stack • Documentação
Peter Palm é uma extensão digital da sua mente. Ele vive no seu desktop, observando (com permissão) o seu contexto visual e auditivo para oferecer assistência proativa e inteligente. Diferente de outros assistentes, o Peter Palm foi desenhado para ser discreto e focado na privacidade.
O Peter Palm lembra o que você fez. Com a integração nativa do OpenRecall, ele mantém uma memória digital local e privada de tudo o que passou pela sua tela.
Escolha exatamente quanto do seu histórico a IA deve analisar: 2 min (Foco Imediato), 1 hora, 1 dia ou Infinito (Todo o histórico disponível).
O modo Listen agora herda sua personalidade definida ("Palm"). Se você prefere respostas sarcásticas ou técnicas, a IA se adapta a você, gerando insights a cada 10 segundos.
Interface e insights totalmente localizados para PT-BR. O sistema entende e responde no seu idioma, com suporte a transcrição e comandos de voz naturais.
Obtenha transcrições em tempo real, resumos automáticos e extração de tarefas durante suas chamadas, sem precisar de bots intrusivos na reunião.
Processamento Local-First. Você controla suas chaves. O modo "Listen" desliga automaticamente quando você para, garantindo que nada seja processado sem permissão.
Integre com seus modelos preferidos. Suporte nativo para:
- Nuvem: OpenAI (GPT-4o), Google Gemini (2.5 Flash), Anthropic Claude.
- Local: Ollama, Whisper (transcrição), Doctr (OCR nativo via Python).
- Node.js: v20.x.x
- Python 3.11: Obrigatório para o backend de IA e OpenRecall.
- Git: Necessário para clonar módulos de OCR.
- Build Tools: Requerido para módulos nativos do Node e Python (torch, numpy).
- Clone o repositório.
- Certifique-se de que o Python 3.11 está no seu PATH.
- Instale as dependências:
npm install
- Inicie o Peter Palm:
Nota: No primeiro boot, o app instalará automaticamente as dependências do backend Python (Torch, Transformers, Doctr, etc.) e o módulo OpenRecall.
npm start
| Atalho | Ação |
|---|---|
Ctrl + \ |
Alternar visibilidade (Mostrar/Ocultar) |
Ctrl + Enter |
Ask AI: Perguntar sobre o contexto atual |
Ctrl + Alt + R |
Smart Capture: Capturar contexto imediato |
O projeto utiliza uma arquitetura híbrida de alto desempenho para máxima performance e privacidade:
- Electron (v30.5.1): Framework principal para a aplicação desktop e gerenciamento de múltiplas janelas.
- Node.js (v20+): Orquestração de serviços e gerenciamento do processo principal.
- LitElement: UI baseada em Web Components para máxima performance e leveza.
- FastAPI (Python 3.11): Backend nativo para processamento de IA e integração de modelos.
- PyTorch & Sentence-Transformers: NLP, geração de embeddings e inteligência contextual.
- Doctr: Reconhecimento óptico de caracteres (OCR) nativo para leitura de tela.
- Whisper & Deepgram: Motores de transcrição de áudio (STT) de alta fidelidade.
- OpenRecall: Captura e indexação de histórico de tela para memória digital.
- ChromaDB: Banco de dados vetorial para busca semântica rápida no histórico.
- SQLite: Armazenamento de metadados, configurações, logs e preferências.
- Firebase: Autenticação segura e sincronização opcional na nuvem.
- Modelos Cloud: OpenAI (GPT-4o), Google Gemini (1.5 Flash), Anthropic Claude.
- Modelos Locais: Integração total com Ollama para execução offline.
- MCP (Model Context Protocol): Padronização de contexto entre diferentes modelos.
Para desenvolvedores interessados em contribuir ou entender a arquitetura:
Distribuído sob a licença GPL-3.0. Veja LICENSE para mais informações.