Articles évalués par des pairs
-
Are Large Language Models Sensitive to the Motives Behind Communication?
Les grands modèles de langage sont-ils sensibles aux intentions qui sous-tendent la communication ?
Addison J. Wu*,
Ryan Liu*,
Kerem Oktar*,
Theodore R. Sumers,
Thomas L. Griffiths
NeurIPS 2025 [Page projet] [PDF]
Oral à COLM 2025 – PragLM
-
Mind Your Step (by Step): Chain-of-Thought can Reduce Performance on Tasks where Thinking Makes Humans Worse
Attention à vos pas (étape par étape) : le raisonnement explicité peut réduire la performance sur des tâches où réfléchir rend les humains moins performants
Ryan Liu*,
Jiayi Geng*,
Addison J. Wu,
Ilia Sucholutsky,
Tania Lombrozo,
Thomas L. Griffiths
ICML 2025
[Page projet]
[arXiv]
Revue de presse :
The Information
[texte]
-
Toward a Neural Network-Based Approach for Improved Atmospheric Infrasound Source Localization
Vers une approche basée sur les réseaux de neurones pour améliorer la localisation des sources d’infrasons atmosphériques
Addison J. Wu,
Arnav Joshi,
Jean-Pierre Hickey
IEEE Access, 2025
[Article]
Prépublications
-
Large Language Models Develop Novel Social Biases Through Adaptive Exploration
Les grands modèles de langage développent de nouveaux biais sociaux par l’exploration adaptative
Addison J. Wu*,
Ryan Liu*,
Xuechunzi Bai,
Thomas L. Griffiths
en cours d’évaluation, 2025 [PDF]
-
Benchmarking Multimodal Large Language Models for Forensic Science and Medicine: A Comprehensive Dataset and Evaluation Framework
Évaluer les grands modèles de langage multimodaux pour la médecine et les sciences forensiques : un jeu de données complet et un cadre d’évaluation
Ashmaan Sohail*,
Om M. Patel*,
Jihwan Choi,
Jack C. S. Venditti,
Addison J. Wu
medRxiv, réviser et resoumettre à Scientific Reports, 2025
[Manuscrit]