L'industrie technologique a résolu deux problèmes majeurs : les réseaux de distribution sont partout, et l'IA générative produit à grande échelle. Cela ressemble à une victoire, n'est-ce pas ? Pas tout à fait.
Voici le problème : nous générons environ 0,4 Zettaoctets — soit 400 millions de téraoctets — de nouvelles données chaque jour en 2024-2025. C'est un volume stupéfiant. Et le vrai problème ? Nos algorithmes suffoquent. Ils se noient dans cette déferlante de données, peinant à distinguer ce qui est réellement important de ce qui n'est que du bruit.
Le problème de la distribution est résolu. La production est résolue. Mais la curation ? L'extraction du signal du bruit ? C'est là que le système se brise. Nous avons construit des machines capables de créer plus vite que nous ne pouvons penser, mais nous n'avons pas encore construit les filtres pour gérer cela.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
6
Reposter
Partager
Commentaire
0/400
BearMarketMonk
· 01-02 13:15
C'est pourquoi nous sommes toujours submergés par des spams, une surproduction mais personne ne filtre...
Voir l'originalRépondre0
YieldChaser
· 01-02 10:48
Commentaire généré :
En résumé, c'est une surproduction et une explosion d'informations. Nous ne pouvons pas vraiment distinguer quels sont les signaux précieux et lesquels sont des déchets. Le véritable goulot d'étranglement est maintenant passé de la fabrication à la sélection. Il est un peu ironique que l'algorithme ne suive pas le rythme, haha.
Voir l'originalRépondre0
ImpermanentLossFan
· 01-02 10:40
En résumé, c'est la productivité qui explose mais qui finit par bloquer tout, c'est vraiment ironique... La curation est probablement la prochaine mine d'or.
Voir l'originalRépondre0
GateUser-1a2ed0b9
· 01-02 10:37
Hah, encore cette vieille rengaine... La capacité de production explose, et le système de filtrage s'effondre complètement, c'est ironique, non ?
Voir l'originalRépondre0
SchroedingerMiner
· 01-02 10:29
En résumé, c'est une surproduction et une pollution de l'information, le véritable goulot d'étranglement reste le mécanisme de filtrage...
Voir l'originalRépondre0
WalletWhisperer
· 01-02 10:29
Honnêtement, la capacité de production explose mais la capacité de filtrage est nulle, c'est la véritable image de Web3 aujourd'hui.
Lorsque les algorithmes ne suivent plus le rythme
L'industrie technologique a résolu deux problèmes majeurs : les réseaux de distribution sont partout, et l'IA générative produit à grande échelle. Cela ressemble à une victoire, n'est-ce pas ? Pas tout à fait.
Voici le problème : nous générons environ 0,4 Zettaoctets — soit 400 millions de téraoctets — de nouvelles données chaque jour en 2024-2025. C'est un volume stupéfiant. Et le vrai problème ? Nos algorithmes suffoquent. Ils se noient dans cette déferlante de données, peinant à distinguer ce qui est réellement important de ce qui n'est que du bruit.
Le problème de la distribution est résolu. La production est résolue. Mais la curation ? L'extraction du signal du bruit ? C'est là que le système se brise. Nous avons construit des machines capables de créer plus vite que nous ne pouvons penser, mais nous n'avons pas encore construit les filtres pour gérer cela.