LLM : mise en oeuvre
Mise en oeuvre d’un système LLM de type Ollama avec un système de RAG associé pour l’adapter au contexte de GraphExIA/Rephon-IA. L’objectif est de doter la plateforme à une IA permettant aux utilisateurs de l”interroger via un prompt et ainsi de pouvoir explorer l’ensemble des données consolidées.
Les contextes dans lesquels nous souhaitons mettre ce dispositif en place sont les deux plateformes REphon-IA et GraphExIA qui ont des documents spécifiques et une structure de base de données.
Pour GraphEXIA nous disposons des productions scientifiques du chercheur (articles, revues, communications et co-auteurs) sur la période complète d’activités. Cette masse d’informations est analysée et structurée dans une base de données Neo4J/MongoDB et parser par le RAG pour une intégration dans le modèle LLM.
Pour Rephon-IA : nous disposons des enregistrements, des diagnostics et des remédiations pour chaque apprenant ce qui nous permet de constituer une structure une base de connaissance à partir de laquelle nous allons compléter les modèles.