La IA tiene un problema de confianza: la tecnología descentralizada de preservación de la privacidad puede solucionarlo

189
SHARES
1.5k
VIEWS



Opinión de: Felix Xu, cofundador de ARPA Community y Bella Protocol

La IA ha sido una narración dominante desde 2024, pero los usuarios y las empresas aún no pueden confiar por completo. Ya se trate de finanzas, datos personales o decisiones de atención médica, la duda en torno a la confiabilidad e integridad de la IA sigue siendo alta.

Este creciente déficit de fideicomiso de IA es ahora una de las barreras más importantes para la adopción generalizada. Las tecnologías descentralizadas de preservación de la privacidad se reconocen rápidamente como soluciones viables que ofrecen verificabilidad, transparencia y protección de datos más sólida sin comprometer el crecimiento de la IA.

El déficit de confianza generalizado de IA

AI fue la segunda categoría más common que ocupaba Crypto Mindshare en 2024, con más del 16% de interés de los inversores. Las nuevas empresas y las compañías multinacionales han asignado recursos considerables a la IA para expandir la tecnología a las finanzas, la salud y cualquier otro aspecto de las personas.

Por ejemplo, el sector emergente Defi x ai (defai) envió más de 7,000 proyectos con un límite de mercado máximo de $ 7 mil millones A principios de 2025 antes de que los mercados se estrellen. Defai ha demostrado el potencial transformador de la IA para hacer que las finanzas descentralizadas (DEFI) sean más fáciles de usar con comandos de lenguaje pure, ejecutar operaciones complejas de varios pasos y realizar investigaciones de mercado complejas.

Sin embargo, la innovación por sí sola no ha resuelto las vulnerabilidades centrales de la IA: alucinaciones, manipulación y preocupaciones de privacidad.

En noviembre de 2024, un usuario convenció a un agente de IA en la base para enviar $ 47,000 a pesar de ser programado para nunca hacerlo. Si bien el escenario period parte de un juego, planteó preocupaciones reales: ¿se puede confiar en los agentes de IA con autonomía sobre las operaciones financieras?

Las auditorías, las recompensas de errores y los equipos rojos ayudan pero no eliminan el riesgo de inyección inmediata, defectos lógicos o uso de datos no autorizados. Según KPMG (2023), 61% De las personas todavía dudan en confiar en la IA, e incluso los profesionales de la industria comparten esa preocupación. Una encuesta de Forrester citada en Harvard Enterprise Overview encontró Ese 25% de los analistas nombraron a Belief como el mayor obstáculo de IA.

Ese escepticismo sigue siendo fuerte. Una encuesta realizada en la Cumbre de la Crimson del CIO de Wall Road Journal encontró Ese 61% de los principales líderes de TI de Estados Unidos todavía están experimentando con agentes de IA. El resto todavía estaba experimentando o evitándolos por completo, citando la falta de confiabilidad, los riesgos de ciberseguridad y la privacidad de los datos como preocupaciones principales.

Las industrias como la atención médica sienten estos riesgos de manera más aguda. Compartir registros de salud electrónicos (EHR) con LLM para mejorar los resultados es prometedor, pero también es de riesgo authorized y éticamente sin protecciones de privacidad herméticamente.