Accepté provisoirement
- Université d’Erlangen-Nuremberg, Erlangen, Allemagne
La compréhension des mécanismes par lesquels le cerveau traite les langues et les constructions linguistiques constitue une question fondamentale en neurosciences cognitives computationnelles. Cette étude se concentre sur le traitement et la représentation des constructions de structure argumentaire (ASCs) au sein du modèle linguistique BERT, tout en développant des analyses antérieures réalisées avec des réseaux LSTM. Nous avons utilisé un ensemble de données personnalisé généré par GPT-4, comprenant 2000 phrases réparties également parmi quatre types d’ASC : constructions transitives, ditransitives, de mouvement causé et résultatives. BERT a été évalué par le biais des différents vecteurs de tokens à travers ses 12 couches. Nos analyses ont consisté à visualiser les vecteurs avec MDS et t-SNE, ainsi qu’à calculer le GDV pour quantifier le degré de regroupement. De plus, nous avons entraîné des classificateurs feedforward (probes) pour prédire les catégories de construction à partir de ces embeddings. Les résultats montrent que les vecteurs de tokens CLS se regroupent de manière optimale selon les types d’ASC dans les couches 2, 3 et 4, avec un regroupement atténué dans les couches intermédiaires et une légère augmentation dans les couches finales. Les vecteurs de tokens DET et SUBJ ont affiché un regroupement intermédiaire constant selon les couches, tandis que les embeddings VERB ont révélé une augmentation systématique du regroupement de la couche 1 à la couche 12. Les embeddings OBJ ont montré un regroupement minimal au départ, qui a considérablement augmenté pour atteindre un sommet dans la couche 10. Les précisions des probes ont indiqué que les embeddings initiaux ne contenaient aucune information spécifique à la construction, comme en témoignent le faible regroupement et les précisions proches du niveau de chance dans la couche 1. À partir de la couche 2, les précisions des probes ont dépassé les 90 pour cent, mettant en lumière des informations latentes sur les catégories de construction non évidentes uniquement à partir du regroupement GDV. De plus, l’analyse du Fisher Discriminant Ratio (FDR) des poids d’attention a révélé que les tokens OBJ avaient les scores de FDR les plus élevés, indiquant leur rôle crucial dans la différenciation des ASCs, suivis des tokens VERB et DET. Les tokens SUBJ, CLS et SEP n’ont pas montré de scores de FDR significatifs. Notre étude met en avant le traitement complexe et stratifié des constructions linguistiques dans BERT, révélant à la fois des similitudes et des différences par rapport aux modèles récurrents comme les LSTM. Les recherches futures compareraient ces résultats computationnels avec des données d’imagerie cérébrale au cours de la perception de la parole continue afin de mieux comprendre les corrélats neuronaux du traitement des ASC. Cette recherche démontre le potentiel des modèles linguistiques neuronaux récurrents et basés sur des transformateurs pour refléter le traitement linguistique dans le cerveau humain, offrant ainsi des aperçus précieux sur les mécanismes computationnels et neuronaux sous-jacents à la compréhension du langage.
Mot-clés :
constructions de structure argumentaire, constructions linguistiques (CXs), Grands Modèles Linguistiques (LLMs), BERT, Représentation de phrases, linguistique computationnelle, traitement automatique des langues (NLP), GPT-4
Reçu : 07 août 2024 ;
Accepté : 08 janvier 2025.
Droits d’auteur : © 2025 Ramezani, Schilling et Krauss. Cet article est en accès ouvert distribué selon les termes de la licence Creative Commons Attribution (CC BY). L’utilisation, la distribution ou la reproduction dans d’autres forums est permise, à condition que l’auteur original ou le titulaire des droits soit crédité et que la publication originale dans ce journal soit citée, conformément aux pratiques académiques acceptées. Aucune utilisation, distribution ou reproduction n’est permise si celle-ci ne respecte pas ces termes.
* Correspondance : Patrick Krauss, Université d’Erlangen Nuremberg, Erlangen, Allemagne
Avertissement :
Les opinions exprimées dans cet article n’engagent que les auteurs et ne représentent pas nécessairement celles de leurs organisations affiliées, du publisher, des rédacteurs et des réviseurs. Tout produit pouvant être évalué dans cet article ou toute affirmation pouvant être faite par son fabricant ne sont pas garantis ou approuvés par le publisher.
Points à retenir
- L’étude examine le traitement des constructions linguistiques dans le modèle BERT, en comparant avec les approches antérieures basées sur LSTM.
- Un ensemble de données de 2000 phrases a été utilisé pour évaluer différents types de constructions de structure argumentaire.
- Les résultats montrent un regroupement significatif des types de constructions dans certaines couches du modèle, soulignant la complexité du traitement linguistique.
- Les poids d’attention désignent certains tokens comme essentiels à la différenciation des constructions.
- Les recherches futures pourraient liier ces avancées computationnelles à des données d’imagerie cérébrale pour approfondir le sujet.
La recherche sur le traitement du langage continue d’évoluer, et cette étude offre une perspective intrigante sur la manière dont les modèles d’apprentissage automatique peuvent simuler des processus cognitifs. L’interaction entre les données computationnelles et les résultats neurobiologiques pourrait nous aider à mieux appréhender les mécanismes fondamentaux de la compréhension linguistique. Une discussion s’engage ici sur les implications éthiques et les applications possibles de ces découvertes dans des domaines tels que l’éducation et l’intelligence artificielle.
- Source image(s) : www.frontiersin.org
- Source : https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2025.1477246/abstract
Nos rédacteurs utilisent l'IA pour les aider à proposer des articles frais de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le retirerons rapidement. / Our editors use AI to help them offer our readers fresh articles from reliable sources. If you find an image or content inappropriate, please contact us via the DMCA form and we'll remove it promptly.