Il s'agit de notre dernière sélection de publications et de brevets mondiaux en anglais sur les grands modèles de langage (LLM), parmi de nombreuses revues scientifiques en ligne, classées et axées sur les thèmes suivants : grand modèle de langage, LLM, transformateur génératif pré-entraîné, pré-entraînement, architecture du transformateur, descente en gradient, GPT, tokenisation, modèle génératif, mécanisme d'auto-attention, modèle de langage masqué et MLM.
Brevets : pas d'actualité brevet sur ce sujet particulier. Veuillez essayer la recherche manuelle approfondie dans la base de données des brevets dont le lien figure juste au-dessus.
Improving Probability-based Prompt Selection Through Unified Evaluation and Analysis
Published on 2024-05-25 by Sohee Yang, Jonghyeon Kim, Joel Jang, Seonghyeon Ye, Hyunji Lee, Minjoon Seo @MIT
Abstract: Previous works in prompt engineering for large language models have introduced different gradient-free probability-based prompt selection methods that aim to choose the optimal prompt among the candidates for a given task but have failed to provide a comprehensive and fair comparison between each other. In this paper, we propose a unified framework to interpret and evaluate the existing probability-based prompt selection methods by performing extensive experiments on 13 common and diverse NLP ta[...]
Our summary: Evaluation of probability-based prompt selection methods through unified framework, Improving prompt selection effectiveness through combinatorial variants of mutual information, Introducing Calibration by Marginalization method for unbiased prompt selection, Achieving high performance in prompt selection without calibration by maximizing mutual information.
prompt selection, probability-based, unified evaluation, analysis, NLP tasks
Publication