Lo primero que hice cuando empecé a leer sobre la Red Mira fue encontrar otro argumento conocido. Una iniciativa de blockchain que intentó corregir las alucinaciones de la IA, envuelta en palabras de moda sobre consenso e incentivos de tokens. He observado esa tendencia demasiadas veces como para ser naturalmente sospechoso.

Pero cuanto más profundizaba, más inquietantes eran mis hallazgos. Esto se debe a que Mira no solo está haciendo esfuerzos para mejorar la IA. Está dudando suavemente de todo el camino que la IA ha estado tomando.

Y ahí es donde está la parte interesante

La paradoja oculta de la IA: avances que se convierten en una carga propia

El avance de la IA se discute típicamente en tamaño. Modelos más grandes. Mejores pruebas. Más poder de razonamiento. Y aun así, lo que comencé a ver es aquello que la mayoría de nosotros no queremos ver:

Cualquier avance en la IA hace que la verificación sea más difícil.

Esto no es obvio al principio. Piénsalo. Los errores de una IA eran evidentes cuando era débil. Los modelos ahora están altamente desarrollados, que sus inexactitudes son tan sutiles y dependientes del contexto que suelen ser indistinguibles de la verdad real. La salida es de aspecto profesional, disciplinada y segura, incluso en los casos incorrectos. Hay una extraña contradicción en eso. Cuanto más avanzada es la IA, más requiere trabajo humano para verificarla. Y esto no es solo teoría. Este cambio se ha reflejado en los datos. Con miles de millones de tokens procesados por Mira misma cada día, esto es una indicación de que algo está fuera de lo común: el uso de la IA está aumentando a un ritmo que la verificación humana no puede igualar. Este es el verdadero cuello de botella. ¡No inteligencia! ¡No computación! ¡Verificación!

¿Qué pasa con la alternativa: podría ser que el problema no sea la alucinación, sino la responsabilidad?

La mayoría de los proyectos presentan el dilema como alucinación. La IA es un fabricante de cosas y debemos minimizar las alucinaciones. Creo que el marco no está completo después de estudiar el diseño de Mira. El verdadero problema no es el hecho de que la IA esté equivocada. Aquí el problema es que la IA nunca está equivocada.

La responsabilidad define el comportamiento en los sistemas humanos. Los científicos envían artículos con la esperanza de que sean revisados por pares. Los analistas financieros hacen las llamadas porque están seguros de que serán juzgados por los resultados. Incluso los mercados funcionan con un sentido de responsabilidad: las malas apuestas cuestan. La IA, a su vez, opera en un vacío. No hay costo inherente a producir resultados que sean incorrectos. El sistema propuesto por Mira presenta el elemento que no es demasiado, sino demasiado fuerte: responsabilidad económica hacia el razonamiento. Los nodos, que verifican incorrectamente, pierden participación. Los nodos que están de acuerdo con el consenso reciben recompensas. Esto puede parecer, a primera vista, un diseño normal de criptomonedas. Sin embargo, cuando lo consideras más a fondo, en realidad está trayendo un nuevo concepto: las salidas de la IA ya no se producen. Se ha demostrado que son económicamente sólidas. Ese es otro paradigma.

Mira está comercializando la verdad.

Cuanto más examinaba la arquitectura de Mira, más comenzaba a pensar que era algo que no esperaba que fuera: no un protocolo, sino un mercado.

Un mercado en el que prevalece la verdad. Cada declaración se convierte en un activo de valor. Cada nodo es un apostador sobre si es correcto. El acuerdo es el descubrimiento de precios. Esto no es lo que estamos acostumbrados a pensar sobre el conocimiento. La autoridad tradicionalmente es la fuente de la verdad. Lo que es correcto es determinado por instituciones, especialistas o estructuras centralizadas. Mira da a esa noción una inversión. Afirma que los incentivos distribuidos y la competencia pueden dar lugar a la verdad. Esto recuerda a los mercados financieros, en lugar de a los sistemas de IA.

Los mercados no son conscientes del precio correcto de un activo. Lo aprenden al involucrarse, al argumentar y al llegar a un compromiso. Eso es lo mismo que Mira está aplicando a la información. Y esa es una idea radical.

La parte de la que nadie habla: la verificación también tiene modos de fallo.

\u003ct-34/\u003e

\u003cc-53/\u003e

MIRA
MIRA
--
--

\u003cm-58/\u003e