UNIVERSITE DE NGAOUNDERE FACUITE DES ARTS, LETTRES ET SCIENCES HUMAINES DEPARTE

UNIVERSITE DE NGAOUNDERE FACUITE DES ARTS, LETTRES ET SCIENCES HUMAINES DEPARTEMENT DE FRANÇAIS ANNEE ACADEMIQUE 2019 -2020 SECOND SEMESTRE LEF 244: TIC ET ANALYSE DE TEXT EC 1: LES LOGICIELS D’ANALYSE DE TEXTE EC 2: LEXICOMÉTRIE APPLIQUÉE ENSEIGNANT: Pr CALAINA THEOPHILE CHARGE DE COURS PLAN DU COURS Introduction I- L'analyse de données textuelles (ou ADT) Il- Lexicométrie Conclusion Bibliographie Brugidou, Mathieu et al., Les facteurs de choix et d’utilisation de logiciels d’Analyse de Données Textuelles, 2000. Brugidou, Mathieu et Michèle Moine, Normes émergentes et stigmatisations. Une analyse comparative à partir des deux questions ouvertes sur les raisons de ne pas trier les déchets et de ne pas faire d’économie d’énergie, 2010. LEF 244 1 LEXICOMETRIE APPLIQUEE Demazière, Didier, Des logiciels d’analyse textuelle au service de l’imagination sociologique, 2005. Fallery, Bernard et Florence Rodhain, Quatre approches pour l’analyse de données textuelles: lexicale, linguistique, cognitive, thématique, 2007. Jenny, Jacques, Méthodes et pratiques formalisées d’analyse de contenu et de discours dans la recherche sociologique française contemporaine. État des lieux et essai de classification, 1997. Jenny, Jacques, À propos des logiciels d’analyse textuelle pratiqués en France pour la recherche en sciences sociales, 2002. Le jeune, Christophe, « Au fil de l’interprétation, l’apport des registres aux logiciels d’analyse qualitative », Swiss Journal of Sociology, vol. 3, n° 34, 2008, p. 593-603. Le jeune, Christophe, Méthodes qualitatives informatisées, Le jeune, Christophe, Montrer, calculer, explorer, analyser. Ce que l’informatique fait (faire) à l’analyse qualitative, 2010. Peyrat-Guillard, Dominique et Daniel Dufresne, L’analyse exploratoire de référentiels de compétences avec Alceste: une aide à la lectures de l’analyste, 2010. Venant, Fabienne et Jean-François Maheux, Réforme de l’enseignement au Québec: une visite guidée par la textométrie, 2014. Wanlin, Philippe, L’analyse de contenu comme méthode d’analyse qualitative d’entretiens : une comparaison entre les traitements manuels et l’utilisation de logiciels, 2007. LEF 244 2 LEXICOMETRIE APPLIQUEE • Drew, P. (2006), Conversation Analysis, Four-Volume Set SAGE Edition. • Grangé D., and Lebart L. (1994), Traitements Statistiques Des Enquêtes, Dunod. • Gubrium, J. (2003), Handbook of Interview Research, SAGE Edition • Kvale, S. (1996), Interviews, an Introduction to Qualitative Research Interviewing SAGE Edition. • Lebart, L., A. Morineau, and M. Piron (2000), Statistique Exploratoire Multidimensionnelle, Dunod. • Lebart, L., and A. Salem (1994), Statistique Textuelle, Dunod. • M.B. Miles, A. M. H. (2005), Analyse Des Données Qualitatives, De Boeck. • Phillips, N. (2002), Discourse Analysis, Investigating Processes of Social Construction SAGE Edition. • JADT.org : Analyse statistique des données textuelles. Introduction Notre époque est caractérisée par une inflation exponentielle de la documentation informatisée. Pour la lexicographie et la terminologie modernes, la multiplication des bases de données textueles pose de nombreux défis. Comment, en effet, rédiger un article de dictionnaire qui puisse rendre compte de l'analyse sémantique d'un mot si ce dernier apparaît dans des dizaines de milliers de contextes?Dans un ensemble documentaire, tous les énoncés dans lesquels un LEF 244 3 LEXICOMETRIE APPLIQUEE mot apparaît n'ont pas la même valeur lexicographique.Ce cours présente l'ensemble des ressources linguistiques dont la langue française dispose pour produire des énoncés définitoires et les stratégies de fouille documentaire à utiliser en vue de repérer automatiquement ces énoncés dans les bases de données textuelles. I- I- L'analyse de données textuelles (ou ADT) Ce cours s’inscrit dans la perspective de l’analyse du discours ayant un format numérique. Il est destiné, prioritairement, aux jeunes chercheurs qui étudient leur corpus de façon traditionnelle dans différents domaines notamment en discours et langue car la recherche statistique et/ou automatique en sciences sociales est une ancienne tendance.Aujourd’hui, il existe des logiciels informatiques qui prolongent avantageusement certaines lacunes des méthodologies classiques de la recherche scientifique. Leur usage semble toutefois restreint. S’agit-il d’un déficit de performance ou de difficulté d’interprétation des résultats, à titre d’exemple ? Depuis le passage à l’écrit numérique, le traitement des textes via des logiciels impacte de plus en plus la méthodologie de la recherche dans différentes disciplines des sciences humaines. La raison de l’usage de ces outils vient de la nécessité d’analyser des corpus volumineux, ce qui requiert une quantité considérable de travail. Ces mêmes outils sont également valables pour explorer LEF 244 4 LEXICOMETRIE APPLIQUEE et analyser de petites de documents (articles de revues, des livres, etc.) et avoir divers résultats, ce qui rend leur utilisation très alléchante. Le logiciel assure un résultat hautement performant, satisfaisant et beaucoup plus ordonné qu’un travail manuel étant exécuté via une entitle informatique intelligente. En effet, les logiciels sont connus par leur efficacité à permettre au chercheur de retourner facilement au texte qui constitue le corpus par un simple clic et à partir de n’importe quelle fonction. Il est ainsi possible de faire appel à des phrases, des paragraphes pour vérifier l’emplacement des formes, lire aisément et comprendre leur contexte. Mais cette approche par logiciel n’est pas exempte de difficultés telles que la collecte des données qui doivent être à la fois larges et diversifiées, ou les problèmes techniques (compétence à utiliser le logiciel) que peut rencontrer l’usager. Malgré son apparition ancienne, l’exploitation de cette démarche automatique du corpus reste limitée, la raison pour laquelle de nombreuses journée scientifiques ont été organisées autour du sujet, et des articles ont été publiés en faveur de l’analyse automatique dans divers domaines de recherche. Grâce aux moyens de communication et d’usage collectif fournis par les nouvelles technologies, la statistique n’est plus réservée au champ scientifique ou économique, elle est aujourd’hui, en usage général dans tous les domaines comme celui du discours universitaire que nous choisissons de traiter à travers l’outil Hyperbase dans cette proposition de communication. LEF 244 5 LEXICOMETRIE APPLIQUEE 1- Traitement automatique de texte Via l’analyse numérique, la vision du texte et la façon de le lire changent ; nous ne lisons plus ce dernier d’une manière purement linéaire mais plutôt en produisant des liaisons transversales entre les mots fonctionnant en réseau. Selon D. Mayaffre, « le numérique complète- augmente la linéarité par des réticularités ». À travers le moyen informatique, qui peut porter des millions de documents, le texte peut être présenté en tant que mobile, dynamique animant le parcours de la lecture du chercheur en le permettant de se déplacer temporairement et simultanément que le déplacement des données du texte en cas d’une lecture hypertextuelle. Il est par ailleurs judicieux de souligner que l’analyse via les logiciels n’enferme pas l’analyste dans une technique imposée, et ne prétend pas à une substitution à la pensée humaine, mais une orientation de cette dernière vers les différentes interprétations verticales et horizontales du texte. 2. Linguistique, statistique et informatique Selon E. Brunet, « la statistique linguistique - et la statistique tout court- ne peut atteindre son plein développement qu’en association avec l’informatique. » À première pensée, nous négligeons toute relation entre la linguistique et la statistique mais si nous réfléchissons aux premiers grands corpus comme celui du LEF 244 6 LEXICOMETRIE APPLIQUEE T.L.F4 qui traite une masse de trente millions de personnes, nous nous interrogeons certainement comment son traitement a pu être réalisé en absence de la statistique, avant de le présenter en forme de dictionnaire écrit. Ainsi, comment cela a été informatisé, par la suite ? Tous les savoirs sont donc indissociables depuis toujours. 3- Le Traitement automatique des langues Le traitement automatique des langues (T.A.L.) est un domaine de recherches pluridisciplinaire, qui fait collaborer linguistes, informaticiens, logiciens, psychologues, documentalistes, lexicographes ou traducteurs, et qui appartient au domaine de l'Intelligence artificielle (I.A.). On dispose d'automates qui jouent aux échecs, ou conduisent des véhicules, aussi bien, voire mieux, que l'homme. Mais l'automatisation des activités langagières « intelligentes » n'est pas effective aujourd'hui – et sans doute pas réalisable – à 100 p. 100. Certaines tâches bien délimitées mettant en jeu le langage peuvent donner lieu à des programmes satisfaisants, mais dans la plupart des cas l'obtention d'une qualité identique à celle de l'humain nécessite une intervention humaine en amont (préédition, simplification, etc.) ou en aval (postcorrection). Le T.A.L. est aussi une réalité socio-économique, avec des entreprises et des produits spécialisés : correcteurs d'orthographe, logiciels de traduction, de dictée vocale... pour ne citer que les produits « grand public ». On estimait en 1994 le LEF 244 7 LEXICOMETRIE APPLIQUEE chiffre d'affaires en produits et services T.A.L. (au sens strict) à 75 millions de dollars aux États-Unis et 100 millions de francs en France, ce qui est encore peu, comparé au marché de la traduction humaine par exemple (1,2 milliard de francs pour la France à la même époque). Avec l'informatisation croissante des activités, les domaines d'applications du T.A.L. ne cessent de croître, même si sa part est variable selon les activités : faible pour les voitures « parlantes » ou les renseignements à voix synthétique, moyenne pour les programmes de traitement de textes à correcteur incorporé, importante pour les applications plus « intelligentes » comme la traduction ou le résumé automatiques. LeTraitement automatique de la langue naturelle (TALN) ou des langues (TAL) est une discipline à la frontière de la linguistique, de l'informatique et de l'intelligence artificielle. Elle concerne la conception de systèmes et techniques informatiques permettant de manipuler le uploads/Management/ cours-lef244-lexicometrie-ec2.pdf

  • 14
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Fev 08, 2022
  • Catégorie Management
  • Langue French
  • Taille du fichier 0.1115MB