#mira $MIRA Mira ne laisse pas les modèles deviner la tâche Ce qui ressemble à la même sortie d'IA n'est souvent pas la même tâche pour différents modèles. Chaque modèle comble les lacunes différemment, en fonction des hypothèses, de la portée, de l'accent. Ainsi, le désaccord n'est pas toujours une question de vérité. Il s'agit souvent d'un décalage de tâche. Ce que je trouve intéressant dans Mira, c'est qu'elle ne commence pas par la vérification. Elle commence par corriger la tâche elle-même. En extrayant des affirmations et en alignant le contexte, Mira s'assure que chaque modèle juge exactement la même chose. Ce changement peut sembler petit, mais il modifie ce que signifie le consensus.
#mira $MIRA Mira ne laisse pas les modèles deviner la tâche Ce qui ressemble à la même sortie d'IA n'est souvent pas la même tâche pour différents modèles. Chaque modèle comble les lacunes différemment selon les hypothèses, la portée, l'accent. Ainsi, le désaccord n'est pas toujours une question de vérité. Il s'agit souvent d'un décalage de tâche. Ce que je trouve intéressant dans Mira, c'est qu'elle ne commence pas par la vérification. Elle commence par corriger la tâche elle-même. En extrayant des revendications et en alignant le contexte, Mira s'assure que chaque modèle juge exactement la même chose. Ce changement semble petit mais il modifie ce que signifie le consensus.