République Algérienne Démocratique et Populaire Ministère de l’Enseignement Sup
République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique Université de Djilali BOUNAAMA Khemis Miliana Faculté des Sciences et de la Technologie Département de Mathématiques et d’Informatiques Mémoire Présenté Pour l’obtention de diplôme de Master en Informatique Option : Ingénierie du logiciel Thème Une approche Deep Learning pour l’analyse des Sentiments Sur Twitter Réalisé par : Encadré par : - BEGHDAD Abdelkrim - OUSERIR Amina Mr. AZZOUZA Nouredine Soutenu devant le jury composé de : O.HARBOUCHE Président R.MEGHATRIA Examinateur 1 S.HADJ SADOUK Examinateur 2 Année Universitaire 2017/2018 Dédicaces Nous remercions Allah qui nous a donné la force et la volonté pour accomplir ce travail Pour les mots ne peuvent pas avoir raison qu’il est mort, à la chère mère et Dieu ait son âme dans son paradis. À toi papa, qui œuvre chaque jour pour mon succès, pour ta confiance indéniable en moi, et pour tous les sacrifices que tu as fait ! À ma sœur Souhila mes frères Mohamed et Youcef qui sont ma fierté. À mon mari, pour son soutien et le bonheur qu'il m'a apporté. À ma famille et mes amis, avec qui j'ai vécu les plus belles expériences de ma vie. À tous ceux qui ont toujours cru en moi et poussé à réussir, je vous dédie ce travail. Amina A mes chers parent ma mère et mon père pour leur Patience, leur amour, leur soutien et leur Encouragement A mes frères. A mon amie proche Amine A mes amis et collègues A tous ceux qui comptent pour moi, A tous ceux qui je compte Abdelkrim Remerciements Au premier temps, nous remercions Allah qui nous a aidés à réaliser ce travail, et qui a été avec nous en tout le moment. Nous remercions également notre encadreur Monsieur AZZOUZA Nouredine pour l'aide et les conseils concernant les missions évoquées dans ce Projet de fin d'étude, qu'il nous a apporté lors des différents suivis. Nos vifs remerciements s’adressent à tous les membres de jury qui nous ont fait l’honneur d’examiner ce travail. Nous souhaitons finalement, présenter toute notre reconnaissance à nos familles et amis respectifs, pour leur soutien de tous les instants, et pour la patience dont ils ont fait preuve tout au long de cette période. Sommaire Liste des abréviations ..................................................................................................................................... I Liste des tableaux .......................................................................................................................................... II Liste des figures ............................................................................................................................................ III Résumé ......................................................................................................................................................... V Introduction générale .............................................................................................................................. - 1 - I. État de l'art ....................................................................................................................................... - 3 - I.1. Introduction ............................................................................................................................. - 3 - I.2. Les définitions .......................................................................................................................... - 3 - I.3. Opinion mining ......................................................................................................................... - 4 - I.3.1. Analyse des sentiments .................................................................................................... - 5 - I.3.2. La polarité et l’intensité de l’opinion ............................................................................... - 5 - I.3.3. Les défis d’analyse les sentiments ................................................................................... - 5 - I.3.4. Difficultés d'Analyse des Sentiments ............................................................................... - 6 - I.3.5. Domaine d’application d’analyse des sentiments ............................................................ - 7 - I.4. Les approches d’analyse des sentiments ................................................................................. - 8 - I.4.1. Approches basées sur le lexique ...................................................................................... - 8 - I.4.1.1. Approche Basée Sur Le Dictionnaire ............................................................................ - 8 - I.4.1.2. Approche Basée Sur Le Corpus .................................................................................... - 9 - I.4.2. Approche D'apprentissage Automatique ......................................................................... - 9 - I.4.2.1. Apprentissage non supervisé ....................................................................................... - 9 - I.4.2.2. Apprentissage supervisé .............................................................................................. - 9 - I.5. Le Deep Learning .................................................................................................................... - 15 - I.5.1. Les réseaux de neurones convolutionnels. .................................................................... - 16 - I.5.2. Les réseaux neuronaux récurrents ................................................................................. - 16 - I.5.3. Les réseaux Long Short-Term Memory (LSTM) .............................................................. - 17 - 1. LSTM bidirectionnels .............................................................................................................. - 20 - I.6. Conclusion .............................................................................................................................. - 21 - II. Analyse et conception .................................................................................................................. - 23 - II.1. Introduction ........................................................................................................................... - 23 - II.2. La Langue arabe ..................................................................................................................... - 23 - II.3. Architecture du système ........................................................................................................ - 23 - II.3.1. Le prétraitement de données......................................................................................... - 24 - II.3.1.1. Tokenisation ........................................................................................................... - 24 - II.3.1.2. Filtrage .................................................................................................................... - 25 - II.3.1.3. La lemmatisation .................................................................................................... - 25 - II.3.1.4. Normalisation lexical des tweets............................................................................ - 25 - II.3.1.5. Détection des mots vides (stop words) .................................................................. - 26 - II.3.1.6. La négation. ............................................................................................................ - 27 - II.3.2. Word Embeddings .......................................................................................................... - 27 - II.3.2.1. Skip-Gram ............................................................................................................... - 28 - II.3.2.2. Cbow ....................................................................................................................... - 29 - II.3.3. Feature Extraction. ......................................................................................................... - 30 - II.3.3.1. Tokenisation ........................................................................................................... - 30 - II.3.3.2. Doc2vec .................................................................................................................. - 30 - II.3.3.3. Maximisation de vecteurs ...................................................................................... - 31 - II.3.4. L’Architecture de notre réseau ...................................................................................... - 31 - II.3.4.1. Le modèle 01 .......................................................................................................... - 31 - II.3.4.2. Le modèle 02 .......................................................................................................... - 32 - II.3.4.3. Le modèle 03 .......................................................................................................... - 33 - II.4. Conclusion .............................................................................................................................. - 35 - III. Implémentation et Mise en œuvre ............................................................................................ - 37 - III.1. Introduction ........................................................................................................................... - 37 - III.2. Twitter .................................................................................................................................... - 37 - III.2.1. La structure de Tweet. ................................................................................................... - 37 - III.2.2. Les concepts de Twitter ................................................................................................. - 38 - III.2.3. Les fondements de Twitter ............................................................................................ - 39 - III.3. Les outils et librairies Utilisés ................................................................................................. - 40 - III.3.1. TensorFlow ..................................................................................................................... - 40 - III.3.2. Keras. .............................................................................................................................. - 40 - III.3.3. Python ............................................................................................................................ - 41 - III.3.4. Farasa ............................................................................................................................. - 41 - III.4. Dataset ................................................................................................................................... - 41 - III.5. Les modèles de Words embedding ........................................................................................ - 42 - III.6. Résultats obtenus et discussions ........................................................................................... - 43 - III.7. Conclusion .............................................................................................................................. - 54 - Conclusion générale ............................................................................................................................... - 56 - Références bibliographiques .................................................................................................................. - 58 - Liste des abréviations CNN: Convolutional Neural Networks CBOW: Continuous Bag of Words ReLu: Rectified Linear Unit LSTM: Long Short-Term Memory RNN: Recurrent Neural Network SVM: Support Victor Machine NN: Neural Network MSA: Arabe Standard Modern S-G: Skip-Gram PMC: Perceptron Multi-Couches API: Application Programming Interface CNTK: Computational Network ToolKit RAM: Random Access Memory Liste des tableaux Table II-1 : configuration du modèle 01 ................................................................................................. -31- Table II-2 : configuration du modèle 02 ................................................................................................. -32- Table II-3 : configuration du modèle 03 ................................................................................................. -34- Table III-1 : Description de dataset SemEval ......................................................................................... -42- Table III-2 : description de différent modèle de word embedding ....................................................... - 23 - Table III-3 :comparaison des résultat modèle 01 et 02 ......................................................................... - 23 - Table III-4 :comparaison entre lstm et lstm bidr .................................................................................. - 23 - Table III-5 : les résultats des différents époches .................................................................................... -49- Table III-6 : les résultats de l’atelier SemEval ....................................................................................... -50- Liste des figures Figure I-1: les approches d’analye des sentiments .................................................................................... -8- Figure I-2: Modèle du perceptron .......................................................................................................... -11- Figure I-3: schéma d'un perceptron multicouche .................................................................................... -12- Figure I-4: Représentaion du graphe de fonction sigmoide .................................................................... -13- Figure I-5: Représentaion du graphe de fonction Relu ........................................................................... -14- Figure I-6 : Représentaion du graphe de fonction Softmax .................................................................... -14- Figure I-7 : Réseau avant et après dropout ............................................................................................. -15- Figure I-8 : RNN Looping ...................................................................................................................... -17- Figure I-9: le module de répétition dans le réseau neuronal récurrent. ................................................... -18- Figure I-10: Le module de répétition dans un LSTM .......................................................................... -18- Figure I-11: Le modèle Lstm bidirectionnels ......................................................................................... -20- Figure II-1: représentation de l’architecture de system .......................................................................... -24- Figure II-2:Tweet cotient d’émojé .......................................................................................................... -25- Figure II-3: Tweet contient des caractères en double. ............................................................................ -26- Figure II-4: Tweet composé des mots vide ............................................................................................. -27- Figure II-5: représentation de word2vec ................................................................................................. -28- Figure II-6: le modèle de Skip-Gram ...................................................................................................... -29- Figure II-7: le modèle de CBOW ........................................................................................................... -30- Figure III-1: la structure d’un Tweet ...................................................................................................... -38- Figure III-2: les composantes d’un Tweet .............................................................................................. -39- Figure III-3: représentation des résultats de modele 01 ......................................................................... -43- Figure III-4 : Précision et Erreur pour le modèle 01 .............................................................................. -44- Figure III-5 : représentation des résultats de modele 02 ........................................................................ -45- Figure III-6 : Précision et Erreur pour le modèle 02 .............................................................................. -45- Figure III -7: Model Lstm sans dropout ................................................................................................ -47- Figure III -8: Model Lstm avec dropout ............................................................................................... -47- Figure III -9: Préision et Erreur pour le modèle 03 ................................................................................ -47- Figure III -10: model 03 avec 50 époches .............................................................................................. -48- Figure III -11: model 03 avec 100 époches ........................................................................................... -49- Figure III -12: model 03 avec 300 époches ........................................................................................... -49- ال ملخص يمكن للشبكات العصبية حل المشاكل بنفس الطريقة التي يمكن حلها من قبل البشر. في عملنا، استخدمنا هذا النوع من .الشبكات لتصنيف التغريدات وتحليل مشاعر المستخدمين لذلك اقترحنا مجموعة متنوعة من النماذج المختلفة للحصول على نتائج جيدة الكلمات المفتاحية: ،الشبكات العصبونية ،تغريدات تويتر تحليل مشاعر وأ.حاسيس ------------------------------------------------------------------------------------------------------------------------------- ---------- Résumé Les réseaux neurones est peut résoudre les problèmes de la même manière qu'ils peuvent être résolus par les humains. Et qui sont spécialisés dans des taches de reconnaissance de forme. Dans notre travail on a utilisé ce type de réseaux pour la classification des tweets et analyser les sentiments des utilisateurs. Alors on a proposé une variété de modèles différents afin d'obtenir de bons résultats. Mots clés : Les réseaux neurones, Tweets, analyse des sentiments. ------------------------------------------------------------------------------------------------------------------------------- ----------- Abstract Neural networks can solve problems in the same way that they can be solved by humans. And who are specialized in pattern recognition spots. In our work we used this type of networks for the classification of tweets and analyze the feelings of the users. So we proposed a variety of different models to uploads/Management/ une-approche-deep-learning-pour-l-x27-analyse-des-sentiments-sur-twitter.pdf
Documents similaires










-
35
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Mai 11, 2021
- Catégorie Management
- Langue French
- Taille du fichier 1.8834MB