Membres du groupe :
- Zachary ADENIN ([email protected])
- Robin BOURACHOT ([email protected])
- Tristan CHOQUET ([email protected])
- Gaspard LALOUETTE ([email protected])
Enseignante-encadrante :
- Mme Zahia GUESSOUM ([email protected])
L'objectif de cette SAÉ est d'utiliser un LLM, déployé localement avec Ollama, pour faire de l'analyse de sentiment sur des tweets concernant un sujet de notre choix. Nous avons choisi Kilian Mbappé, un joueur Français de football.
- Installer les dépendences :
python3 -m venv venv && source venv/bin/activate && pip install -r requirements.txt
; - Démarrer Ollama :
docker compose up -d && docker compose exec ollama ollama pull mistral:7b-instruct
; - Scraper les tweets avec la bibliothèque
twscrape
:python3 -m scripts.scrap
; - Classifier les tweets :
python3 -m scripts.classif
; - Afficher le tableau de bord :
python3 -m scripts.streamlit
.
- Nous avons choisi la bibliothèque
twscrape
car c'est la seule que nous avons réussi à faire fonctionner, avec tous les changements réalisés sur l'application X (anciennement Twitter). - Nous avons choisi le modèle
mistral:7b-instruct
car c'est le seul modèle que nous avons trouvé et qui supporte les sorties structurées, ce qui nous a permis de récupérer un JSON avec plusieurs informations (sentiment, explication, citation, score) pour une même inférence, au lieu de se limiter à un seul sentiment ou à une sortie dont la structure ne pourrait pas être interprétée correctement. - Nous avons rapidement étudié la distribution de nos données en utilisant
streamlit
, ce qui nous a permis d'observer que les tweets étudiés étaient considérés comme plutôt positifs à l'égard de Kilian Mbappé.