Cette année, c'est l'année de la Coupe du Monde, et récemment, il y a des gens qui demandent tous les jours dans différents groupes ce qu'il faut préparer à l'avance.
Pour être honnête, chaque fois qu'on arrive à un grand événement comme celui-ci, il y a toujours une multitude de concepts qui essaient d'attirer l'attention, avec une image et quelques slogans pendant deux jours, puis ils disparaissent, je suis sûr que tout le monde en a déjà assez vu.
Cependant, ces derniers jours, un projet appelé Clutch sur la chaîne BSC
CA:0x9f49beebdf23b4b050defb2e3b1562a5ffc45ef6
m'a vraiment ouvert les yeux, regardons-le d'un point de vue plus terre à terre.
Il porte le titre de la mascotte officielle de la Coupe du Monde de cette année, l'aigle à tête blanche, et la reconnaissance de l'IP est effectivement très élevée, mais ce n'est pas vraiment l'essentiel.
Ce qui me fait vraiment penser qu'il vaut la peine d'en parler, c'est que cette équipe semble être en train de "faire de vraies choses".
Maintenant, dans ce marché, tout le monde a appris à être malin, il est très difficile de faire débourser de l'argent juste en faisant de belles promesses. Clutch adopte une approche assez pragmatique, ils ont non seulement lancé un petit jeu de survie appelé GO FIFA, mais ils sont également en train de mettre en place un marché de prévisions de football.
Vous pouvez imaginer la scène suivante : au milieu de la nuit en regardant un match, nous pouvons non seulement regarder le match, mais aussi participer directement à la prévision des résultats sur la chaîne avec nos jetons de mascotte, voire échanger sur leur DEX exclusif à l'avenir.
Cette expérience de pouvoir regarder le match tout en ayant une réelle sensation de participation est beaucoup plus intéressante que de simplement tenir un jeton inactif et de se concentrer sur les graphiques tous les jours.
Personnellement, je suis assez agacé par les projets qui ne cessent de crier "nous allons nous envoler, nous allons devenir riches". En comparaison, des projets comme Clutch qui essaient de trouver des scénarios d'utilisation réels pour les jetons, qui veulent vraiment que les gens commencent à "jouer", semblent beaucoup plus solides.
Après tout, le flot immense de la Coupe du Monde arrive bientôt, et les fonds finiront certainement par se concentrer là où il y a réellement du trafic et des scénarios d'application.
Bien sûr, discuter c'est bien, mais cela ne signifie pas que tout le monde doit maintenant investir massivement. Nous pouvons tout à fait le considérer comme un projet de divertissement pour accompagner nos visionnages de matchs cette année, prendre un peu d'argent de poche pour essayer leurs jeux et fonctionnalités de prévision.
Jouer tout en observant si leur écosystème peut se développer, c'est la meilleure attitude à avoir. Si cela vous intéresse, vous pouvez vérifier le contrat se terminant par 5ef6, le valider de plusieurs manières avant de prendre une décision.
Je viens tout juste de revenir d'un voyage à Nankin, et je viens également de regarder les changements de situation au Moyen-Orient, maintenant j'ai un sentiment de plus en plus clair.
Actuellement, beaucoup de gens considèrent encore la crypto comme un "marché d'échange", mais en réalité, une partie des projets a déjà commencé à se diriger vers des directions plus fondamentales.
Prenons par exemple @SignOfficial dans ce qu'il fait, cela ressemble en fait plus à une sorte d'"infrastructure géopolitique".
Lorsque les fonds, les identités et les protocoles de différentes régions commencent à se fragmenter, des réseaux de base comme $SIGN , capables de porter la confiance et la coopération, deviendront en fait plus critiques.
Auparavant, les gens parlaient de narration, c'était surtout raconter des histoires.
Mais dans ce type d'environnement, vous découvrirez :
La confiance n'est plus une donnée par défaut.
Les flux de fonds interrégionaux, la coopération par protocoles, voire les identités et les données,
entre différents systèmes, en réalité, sont fragmentés.
À ce moment-là, si vous regardez ce que fait @SignOfficial , vous aurez une compréhension un peu différente.
Cela ressemble davantage à la création d'une "couche de confiance neutre",
Ce n'est pas au service d'un marché spécifique, mais au service de la "coopération entre différents systèmes".
Le rôle de $SIGN ici n'est en fait pas juste celui d'un simple jeton,
mais d'un vecteur de valeur lié à ce "besoin de coopération interrégionale".
Si vous regardez sur une période plus longue :
Lorsque le monde devient plus fragmenté,
beaucoup de mécanismes de confiance traditionnels commencent à échouer,
ce type d'infrastructure deviendra plutôt une nécessité.
Pas parce qu'il raconte de belles histoires,
mais parce que notre réalité commence à en avoir besoin.
Récemment, en consultant le timeline, j'ai eu une impression assez marquée.
Tout le monde parle des Agents IA. Ceux qui font de la stratégie, ceux qui créent du contenu, voire ceux qui gèrent des projets, s'orientent presque tous dans cette direction.
Cependant, après avoir beaucoup regardé, on commence à réfléchir à une question plus fondamentale : D'où proviennent les données de ces Agents ?
S'il n'y a pas d'entrée de données stable, peu importe à quel point un Agent est intelligent, il n'est en réalité qu'une "coquille vide".
Beaucoup de gens se concentrent actuellement sur la couche d'application.
Quel Agent est plus intelligent, lequel est plus automatisé, lequel génère plus de revenus.
Mais ce qui détermine vraiment le plafond, ce n'est souvent pas cela. C'est plutôt cette couche plus fondamentale : les données.
C'est aussi la raison pour laquelle j'ai récemment décidé de revoir @Chainbase Official .
Sa position actuelle est déjà très claire : ce n'est pas une simple interface de données, mais une couche de données Crypto destinée aux Agents IA.
Pour le dire franchement, ce n'est pas pour les humains, c'est pour les Agents.
Comme OpenClaw, qui est assez populaire récemment, c'est en réalité un très bon exemple. Beaucoup de gens voient l'application elle-même, mais derrière, cela repose en fait sur un ensemble complet de capacités d'approvisionnement en données. C'est juste que la plupart des gens ne regardent pas vraiment cette couche.
En ajoutant à cela la performance de $C ces derniers jours, c'est encore plus intéressant. Le marché n'est pas particulièrement fort, mais ce type de cibles axées sur les infrastructures commence à émerger.
Cela ressemble davantage à un reflet anticipé d'une chose : Le marché est en train de redéfinir la capacité fondamentale dans le récit IA.
Souvent, les premiers à bouger ne sont pas nécessairement ceux qui sont les plus bruyants. Au contraire, ce sont souvent les parties qui, au début, semblent moins évidentes.
Après avoir calculé ce montant du Vera Report, j'ai découvert que Midnight est en train de découper un "gâteau de primes" de plusieurs milliards.
J'ai reçu cet après-midi un appel d'un vieux pote qui travaille à Vancouver dans la gestion d'actifs non performants. Il m'a demandé si je suivais la prime anonyme sur Telegram, ma première réaction a été : c'est encore un terrain d'arbitrage de plusieurs milliards qui n'a pas encore été exploité.
Pour être honnête, par rapport à ces concepts de vie privée creux, je me concentre davantage sur le flux de trésorerie dans le graphique de Vera Report. Pensez-y, le ministère de la Justice des États-Unis (DOJ) peut récupérer 6,8 milliards de dollars en un an, et les dénonciateurs peuvent obtenir jusqu'à 30 % de la prime. Où est la technologie de la vie privée ici ? C'est clairement une infrastructure de partage de fonds conçue sur mesure pour les "chasseurs de primes" mondiaux.
Auparavant, il y avait toujours quelqu'un qui me contredisait, disant que la technologie de la vie privée n'avait d'autre utilité que de servir des activités illicites, mais en voyant ce rapport anonyme sur l'infrastructure fait par @MidnightNetwork , je me suis rendu compte que nous avions auparavant une vision trop étroite du terme "souveraineté technologique". La phrase dans l'image "le problème n'est pas le courage, mais l'infrastructure" m'a vraiment touché.
Aujourd'hui, j'ai passé beaucoup de temps à observer la logique de Vera Report. Auparavant, si vous vouliez être un "lanceur d'alerte", vous deviez parier l'avenir de votre famille, voire votre sécurité personnelle, ce coût de la justice est trop élevé, les gens ordinaires ne peuvent tout simplement pas se le permettre.
Mais la méthode actuelle de Midnight utilise ZK (preuve à connaissance nulle) pour transformer le lourd choix moral en un ensemble de solutions codées sans perte. Son opération la plus astucieuse est : le front-end vous permet d'être complètement "invisible" sur Telegram, tandis que l'arrière-plan peut prouver la conformité pour que le gouvernement vous verse les 15 % de récompense. Ce "ce qui doit être caché est caché, ce qui doit être exposé est exposé" est vraiment une infrastructure de confiance.
Cependant, je dois également apporter une perspective technique. Ce "divulgation sélective", bien que intelligente, signifie également que Midnight a laissé une "fenêtre" spécifique pour l'audit dans le protocole de base.
J'ai observé que dans l'environnement de test actuel, la vitesse de réponse de cette soumission anonyme est encore relativement stable, mais si à l'avenir nous faisons face à une demande d'audit transnational massive, je m'inquiète de savoir si cet équilibre pourra être maintenu.
Je pense que Midnight a réussi à tirer la technologie de la vie privée du "laboratoire" directement sur le "front de lutte contre la corruption".
Je suis à 70 % optimiste quant à cette logique qui cherche à obtenir de la productivité dans le monde réel, et les 30 % restants, je dois les réserver à la performance sous pression de cette vie privée conforme face à une pression réglementaire extrême.
Ne regardez pas seulement le $NIGHT pour ses fluctuations, allez voir si ce système peut réellement faire disparaître les 5000 milliards de coûts de corruption.
À partir de la gestion de Balance, parlons de Midnight : le stockage à froid et les preuves ZK peuvent-ils vraiment être compatibles ?
Après avoir vu le message concernant la gestion native de @MidnightNetwork par Balance, ma première réaction n'était pas que le prix des cryptomonnaies va augmenter, mais plutôt comment modifier ce HSM (module de sécurité matériel) en arrière-plan. En tant que développeur, je sais bien que la gestion des clés privées est le plus gros casse-tête de la chaîne de confidentialité. La logique de Midnight génère des preuves ZK localement, ce qui signifie que les clés privées doivent participer au calcul. Mais des institutions comme Balance, qui sont réglementées, ont leurs actifs principaux verrouillés dans du stockage à froid. Cet après-midi, assis devant mon ordinateur, j'ai simulé plusieurs fois et j'ai toujours l'impression que la réalisation de ce projet "qui doit être à la fois totalement isolé et calculer des preuves en temps réel" me fait perdre plus de cheveux que prévu.
Je viens de lire l'annonce selon laquelle Balance doit gérer @MidnightNetwork dès le premier jour de son lancement sur le réseau principal, ma première réaction a été que cette affaire a été sous-estimée.
Il faut savoir que Balance est le genre d'institution conforme qui est strictement auditée, et le fait qu'ils osent gérer $NIGHT montre que le mécanisme de "divulgation sélective" de Midnight a déjà passé le test, du moins sur le plan légal, ce n'est pas une "boîte noire" qui mettrait les institutions en danger.
Je me suis demandé aujourd'hui pourquoi les institutions attachent tant d'importance à cette étape ?
En fait, la logique est très simple, les gros capitaux craignent plus les risques de conformité sous-jacents que la volatilité.
Sans ce type de soutien de gestion natif, le lancement sur le réseau principal ne serait qu'un plaisir éphémère pour les initiés, et il serait difficile d'attirer de véritables fonds à long terme.
Cependant, je m'inquiète également de cette liaison profonde, l'entrée de géants comme Balance, bien qu'elle stabilise la base, signifie également que Midnight devra probablement faire de nombreux compromis pour se conformer, cette posture de "danser avec des chaînes" met vraiment à l'épreuve la capacité d'équilibre de l'équipe.
Je pense que cela ressemble davantage à un transfert de pouvoir concernant les normes de confidentialité.
Les données de test actuelles montrent que le processus d'intégration des institutions est bien plus fluide que celui des utilisateurs ordinaires, ce qui indique que l'accent initial de Midnight est de stabiliser d'abord les grands clients. Je suppose que pendant les premiers jours après l'ouverture du réseau principal, la libération de la liquidité sera très mesurée.
Cette approche est stable, mais l'explosivité pourrait ne pas être aussi spectaculaire que tout le monde le pense. Je suis optimiste à 70 % sur la situation actuelle, les 30 % restants dépendront de la façon dont la logique de production réelle de DUST interagira avec les institutions de gestion après le démarrage du réseau principal.
En tout cas, ne vous laissez pas emporter par ces quatre mots "lancement sur le réseau principal", il faut voir comment ces grands prédateurs se positionnent réellement, je continuerai à suivre les données des nœuds ultérieurs de Balance.
De l'utopie de la vie privée à l'outil financier : mon avis sur Midnight
Pour être honnête, quand j'ai vu @MidnightNetwork forcer les mots "conformité" et "vie privée" à être réunis, j'ai failli cracher mon café du matin.
Cette logique ressemble à dire que je vais te donner un espace personnel absolu, mais à condition que tu laisses un judas sur le mur de ta maison, afin que je puisse toujours apporter la régulation pour un "contrôle de routine". Ces deux derniers jours, j'ai étudié leur accord de "divulgation sélective" pendant longtemps, et ce design est en fait assez déchirant. Pour un joueur de vie privée pur, une chaîne qui ne peut pas être complètement cachée est essentiellement handicapée. Mais j'ai aussi découvert une réalité assez ironique : ces projets qui prétendaient être absolument anonymes sont maintenant tous retirés des échanges, devenant des îles de liquidité.
J'ai longtemps réfléchi à pourquoi, à ce moment précis, nous avons besoin de chaînes latérales de confidentialité comme @MidnightNetwork , au lieu de continuer à améliorer les solutions anonymes existantes.
En réalité, le problème central est que la plupart des technologies de confidentialité existantes sont dans un état de rupture avec le monde réel, et l'apparition de Midnight ressemble davantage à un compromis et une fusion avec les règles de la réalité.
Elle dissocie la valeur et la confidentialité grâce à une architecture à double jeton, ce qui est logiquement très avancé, mais je me demande si ce design peut vraiment être accepté par les communautés qui recherchent une décentralisation extrême.
D'un point de vue stratégique, c'est une carte importante pour Cardano qui tente de briser ses limites, mais l'identité de la chaîne latérale détermine également que sa sécurité dépendra fortement de la force du consensus du réseau principal au début.
Je suppose que dans le futur, davantage d'institutions traditionnelles entreront dans le Web3 par ce canal de confidentialité conforme qu'est Midnight, mais cela nécessite un long processus de construction de confiance, ce qui ne peut absolument pas être accompli au moment où le réseau principal sera lancé.
Le Midnight actuel ressemble à un laboratoire de précision récemment construit, avec des instruments très avancés, mais pour savoir s'il pourra produire des résultats qui changeront le monde, il faut voir si les équipes de recherche qui s'y installeront seront à la hauteur. Je conseille de rester prudemment optimiste quant à sa valeur à long terme.
Midnight n'est pas une chaîne de confidentialité en boîte noire, elle ressemble davantage à un "coffre-fort avec des tiroirs"
Je viens de terminer le document sur le langage Compact basé sur TypeScript @MidnightNetwork , j'ai frotté mes yeux et je me sens en fait assez complexe à l'intérieur. Beaucoup de gens se concentrent sur le contexte d'IOG ou de Cardano derrière cela, mais je suis plus préoccupé par ce que ce "divulgation sélective" en soi essaie de jouer comme un tour. Cet après-midi, j'ai essayé de faire fonctionner une logique simple d'actifs privés sur le réseau de test, et j'ai l'impression que Midnight ne vise pas à devenir une autre boîte noire complètement invisible. Cela ressemble davantage à un coffre-fort avec des tiroirs ; si vous souhaitez montrer un tiroir à la réglementation, vous jetez simplement cette clé de visualisation spécifique (Viewing Key).
Récemment, j'ai suivi de près le déploiement des nœuds de la chaîne principale de @Fabric Foundation et j'ai remarqué que beaucoup de gens ont en réalité une mauvaise compréhension de son modèle à double jeton, pensant que $NIGHT n'est qu'un jeton de gouvernance ordinaire.
En réalité, ce design séparé vise à résoudre le "dilemme de la volatilité" qui préoccupe le plus les chaînes de confidentialité, c'est-à-dire que lorsque vous payez des frais avec le DUST protégé, vous n'avez pas à vous soucier d'une flambée des prix du jeton principal qui pourrait vous empêcher de faire fonctionner même un contrat intelligent. Cependant, ce design pose également un défi très réel : si la courbe de production du DUST n'est pas bien régulée, la pression de vente des premiers détenteurs de jetons pourrait directement effondrer le système de valeur du DUST.
Je pense que Midnight a choisi de se lancer à ce moment-là pour jouer sur le besoin pressant de conformité en matière de confidentialité, après tout, sa divulgation sélective a effectivement offert une porte de sortie à la finance traditionnelle, mais cet équilibre est difficile à maintenir ; tant que le niveau de conformité est légèrement dépassé, le cercle crypto natif pourrait ne pas être convaincu.
À l'heure actuelle, il est vrai qu'il est techniquement plus solide que les solutions de confidentialité existantes, mais je prédis que la liquidité de son lancement sur la chaîne principale pourrait être relativement épuisée. L'évaluation actuelle inclut en fait une grande partie des attentes de prime sur l'écosystème Cardano, donc entrer à ce moment est en réalité un pari sur la rapidité de son adoption par les grandes entreprises. Je vais rester en position d'attente avec un portefeuille à moitié plein.
Lorsque les outils d'IA dans les ordinateurs se multiplient, le réseau pourrait aussi devoir changer
Parfois, on découvre soudainement quelque chose d'assez intéressant.
Il y a de plus en plus d'outils d'IA dans les ordinateurs. Écrire des choses sera aidé par une IA qui organise les idées,
lorsque j'écris du code, c'est peut-être une autre IA qui assiste,
parfois, je vais même demander à l'IA d'analyser le contenu généré par l'IA. On finit par sentir que l'on a comme plusieurs "collègues numériques" dans l'ordinateur.
Certains sont doués pour écrire, d'autres pour analyser des problèmes, d'autres pour traiter des données. Mais lorsque ces outils d'IA se multiplient, un problème très réel apparaît —
Parfois, assis devant l'ordinateur, on a une sensation très étrange.
On a l'impression que l'ordinateur ne contient plus seulement des logiciels, mais ressemble davantage à plusieurs "collègues numériques".
Quand on écrit quelque chose, on demande un peu à l'IA,
si le code est bloqué, on demande à l'IA de jeter un œil,
parfois on est même trop paresseux pour organiser ses idées soi-même, on laisse directement l'IA nous donner un cadre.
On finit par réaliser que beaucoup de travaux ne sont en réalité plus effectués par une seule personne, mais par une collaboration entre l'homme et l'IA.
Mais quand cette situation devient de plus en plus fréquente, un problème commence à émerger :
Si à l'avenir, de nombreux systèmes d'IA fonctionnent simultanément, comment vont-ils se connecter entre eux ?
Si chaque outil est indépendant, il est en fait très difficile de former un véritable réseau.
C'est pourquoi, en voyant @Fabric Foundation dans cette direction, je trouve cela assez intéressant.
Cela essaie de construire une structure de réseau où les machines peuvent également participer, permettant à différents systèmes de fonctionner dans le même environnement.
Et $ROBO ici ressemble davantage à une unité d'incitation dans le réseau.
Les nœuds fournissent des ressources et participent au réseau, tout cela peut se faire à travers elle pour former une distribution.
Alors que l'IA devient de plus en plus comme un "collègue numérique",
Il y a quelques jours, l'ordinateur s'est soudainement éteint.
Après le redémarrage, la première chose à faire n'était pas de vérifier le problème, mais de rouvrir plusieurs outils d'IA.
En fait, il y a déjà pas mal de logiciels d'IA installés sur l'ordinateur.
Un pour écrire du code, un pour rechercher des informations, un pour traiter des données, et parfois je les laisse même s'entraider pour optimiser les résultats.
Regarder ces programmes fonctionner ensemble est en fait assez intéressant—
Beaucoup de choses sont progressivement devenues des logiciels aidant d'autres logiciels à accomplir des tâches.
Mais si à l'avenir cette automatisation devient de plus en plus courante, un problème va devenir de plus en plus évident :
Comment ces systèmes collaborent-ils entre eux ?
Comment les tâches sont-elles réparties, comment les ressources sont-elles utilisées, comment le processus d'exécution est-il enregistré, tout cela nécessite une structure.
Donc, quand je vois cette direction comme @Fabric Foundation , je pense que l'idée est assez claire.
Il essaie de construire un réseau dans lequel les machines peuvent participer, permettant à différents systèmes d'exécuter des tâches ensemble.
Et $ROBO dans cette structure ressemble davantage à une unité d'incitation dans le réseau.
Les nœuds fournissent des ressources et participent à la collaboration, tout cela peut être formé par cette unité.
À mesure que le nombre d'IA dans l'ordinateur augmente,
le réseau de collaboration entre les machines pourrait également devenir de plus en plus important.
Lorsque l'IA commence à s'« ajuster » mutuellement, le réseau pourrait également devoir changer.
Parfois, lorsque je mets un nouveau logiciel d'IA sur mon ordinateur, je suis trop paresseux pour m'en occuper moi-même quand ça ne fonctionne pas. Je laisse directement une autre IA m'aider à l'ajuster.
Laissez-le analyser les problèmes, modifier les configurations, exécuter des tests. Dans de nombreux cas, cela peut vraiment fonctionner. Parfois, regarder ce processus est en fait assez intéressant. Le logiciel aide le logiciel à résoudre des problèmes. On finit par réaliser que beaucoup de choses ne sont plus seulement « les humains qui manipulent le logiciel », mais que les logiciels travaillent ensemble. Par exemple, une IA écrit du code, une autre IA est responsable des tests, un autre système vous aide à déployer. L'ensemble du processus est en fait déjà très proche d'une opération automatisée.
J'ai récemment examiné plusieurs projets, et il est en fait assez évident que beaucoup sont de pures narrations de mèmes, la popularité arrive rapidement puis disparaît aussi rapidement.
En revanche, ce type de projet avec des scénarios spécifiques a tendance à durer un peu plus longtemps.
Clutch DEX suit cette fois la voie du marché des prévisions de la Coupe du Monde + DEX.
La Coupe du Monde elle-même est un événement mondial d'une ampleur considérable, et les produits de marché de prévision sont particulièrement influencés par l'actualité ; une fois que l'événement commence, le niveau de participation sera théoriquement très élevé.
De plus, ils ont déjà GO FIFA en version bêta ouverte et 5 000+ adresses activées, ce qui indique qu'ils ne partent pas de zéro.
Pour ma part, j'ai commencé par investir un petit montant pour tester, les règles spécifiques peuvent être consultées dans le Quote ci-dessous.
Que va devenir le réseau lorsque les machines commencent à collaborer entre elles ?
Parfois, je change d'angle pour regarder le récit de l'IA actuelle.
Les gens discutent souvent de ce que l'IA peut faire, de son efficacité, mais en réalité, il y a un changement assez intéressant - la collaboration entre machines devient progressivement plus fréquente. Autrefois, de nombreux systèmes étaient « l'homme opère la machine ».
Par exemple, une personne écrit du code, une personne donne des instructions, une personne confirme les résultats.
La machine n'est qu'un outil. Mais maintenant, la situation est un peu différente.
De plus en plus d'agents IA peuvent réaliser eux-mêmes l'ensemble du processus :
prendre des tâches, traiter des données, générer des résultats, puis remettre ces résultats au système suivant pour continuer l'exécution.
Si à l'avenir, de nombreuses tâches sont accomplies par des IA ou des robots, comment confirmer la responsabilité de ces actions ?
Aujourd'hui, les agents IA peuvent déjà écrire du code, analyser des données, et même exécuter automatiquement certains processus.
Mais si l'IA se trompe, ou exécute certaines actions, qui prouve ce qu'elle a vraiment fait ?
Il est en fait difficile pour les systèmes traditionnels d'enregistrer ces processus.
Donc, en voyant @Fabric Foundation dans cette direction, je trouve l'idée plutôt intéressante.
Cela tente d'enregistrer les actions exécutées par les machines sur le réseau, en utilisant des calculs vérifiables pour confirmer le processus d'exécution.
Ainsi, qui a exécuté la tâche, qui a contribué aux ressources, peut être clairement enregistré.
Dans cette structure, $ROBO ressemble davantage à une unité d'incitation dans le réseau.
L'exécution de tâches, la participation à la collaboration, la fourniture de ressources, peuvent toutes être réparties à travers elle.
Si à l'avenir, l'IA commence vraiment à participer massivement au travail,
alors ce type de réseau capable d'enregistrer et de vérifier les actions des machines pourrait devenir de plus en plus important.
Beaucoup de gens, lorsqu'ils entendent parler de blockchain, pensent d'abord à la transaction, aux actifs, et à la finance.
Mais parfois, je me demande si à l'avenir, cela pourrait ne pas être seulement un système financier, mais aussi devenir l'infrastructure de la collaboration entre machines.
De plus en plus d'agents AI peuvent déjà exécuter des tâches automatiquement, comme écrire du code, analyser des données, et même aider les gens à accomplir des processus complexes.
Si ces comportements automatisés deviennent de plus en plus fréquents, la manière dont la valeur est réglée deviendra un problème.
Si chaque étape nécessite une confirmation manuelle, l'efficacité sera toujours limitée.
Ainsi, en voyant la direction de @7_7oken , je trouve que l'idée est plutôt intéressante.
Elle tente d'enregistrer les actions exécutées par les machines et de compléter la vérification et la distribution sur le réseau.
Dans cette structure, $ROBO ressemble davantage à une unité de valeur sur le réseau.
Qui exécute les tâches et qui contribue des ressources peuvent tous être incités à travers cela.
Lorsque l'AI commence à travailler de manière continue, comment le système économique fonctionne, pourrait être le véritable problème à résoudre dans la prochaine étape.
Quand l'IA commence à travailler, comment évaluer la valeur ?
Je pense à une question depuis un certain temps :
Si beaucoup de choses sont faites par des IA ou des robots à l'avenir, comment évaluer la valeur de ces actions ? Maintenant, il est en fait très courant que l'IA écrive du code, exécute des données, et effectue des transactions automatiquement.
Mais si vous y réfléchissez, après qu'ils aient terminé leur travail, qui paie ? Comment confirmer ? Comment répartir ? Si des humains doivent encore cliquer pour confirmer, alors le sens de l'automatisation est en fait réduit. Alors, récemment, je suis tombé sur
et j'ai soudain eu un écho. Ce qu'ils font n'est pas simplement de créer un concept d'IA, mais de construire un réseau où une machine peut fonctionner d'elle-même.