En ce base sur
En ce base sur les convetion les conventions définies par OpenAI, l'API Albert expose des endpoints qui peuvent être appelés avec le client officiel python d'OpenAI.
Ce formalisme permet d'intégrer facilement l'API Albert avec des librairies tierces comme Langchain ou LlamaIndex.
Albert API intègre nativement la mémorisation des messages pour les conversations sans surcharger d'arguments le endpoint /v1/chat/completions
par rapport à la documentation d'OpenAI. Cela consiste à envoyer à chaque requête au modèle l'historique de la conversation pour lui fournir le contexte.
Grâce à un fichier de configuration (config.example.yml) vous pouvez connecter autant d'API de modèles que vous le souhaitez. L'API Albert se charge de mutualiser l'accès à tous ces modèles dans une unique API. Vous pouvez constater les différents modèles accessibles en appelant le endpoint /v1/models
.
Les tools sont une fonctionnalité définie OpenAI que l'on surcharge dans le cas de l'API Albert pour permettre de configurer des tâches spéficiques comme du RAG ou le résumé. Vous pouvez appelez le endpoint /tools
pour voir la liste des tools disponibles.