NeuralTrust, la startup española que quiere ser el sello ético de la IA

NeuralTrust audita y protege modelos de IA generativa para garantizar su uso ético, seguro y conforme al nuevo marco regulatorio europeo.
Equipo de NeuralTrust
Equipo de NeuralTrust :: South Summit

NeuralTrust, la startup española que quiere ser el sello ético de la IA

NeuralTrust audita y protege modelos de IA generativa para garantizar su uso ético, seguro y conforme al nuevo marco regulatorio europeo.

El boom de la inteligencia artificial generativa ha traído consigo avances espectaculares… y riesgos invisibles. ¿Quién responde si una IA genera información falsa, sesgada o directamente peligrosa? Ahí es donde entra en juego NeuralTrust.

La startup barcelonesa acaba de ganar el vertical Trust Tech & Data en South Summit Madrid 2025, uno de los escaparates más relevantes del ecosistema emprendedor europeo.

Además, se ha alzado con el premio a la startup más escalable del evento, superando a más de 4.500 candidaturas de todo el mundo.

¿Su propuesta? Crear un sistema de certificación y defensa activa para garantizar que los modelos de IA se comporten como deberían: de forma segura, responsable y alineada con la ley.

IA generativa sí, pero con candado

Fundada por Ferran Giménez, Santi Seguí y Eloi Salat, NeuralTrust opera sobre una idea clara: la IA generativa debe ser verificable, auditada y conforme a unos principios éticos mínimos. Para lograrlo, ha diseñado una suite de productos que se integran directamente en el ciclo de vida del modelo.

Este enfoque técnico convierte a NeuralTrust en una herramienta imprescindible para aquellas empresas que ya están desplegando IA generativa en entornos sensibles como banca, salud, educación o administración pública.

La confianza como diferencial

Detrás del proyecto hay una convicción estratégica: la confianza será la moneda más valiosa de la IA corporativa.

La futura AI Act europea, que se aplicará en toda la UE en los próximos meses, obligará a las empresas a demostrar que sus sistemas son seguros y transparentes. NeuralTrust se anticipa a ese escenario ofreciendo una solución tecnológica que no solo detecta errores, sino que ayuda a prevenirlos.

Con su propuesta de crear una certificación internacional para modelos éticos de IA, aspiran a posicionarse como una especie de ISO para la inteligencia artificial. Una referencia técnica que permita validar modelos antes de que se desplieguen en entornos críticos.

Nuevos apoyos

La startup ha sido reconocida por ENISA como uno de los proyectos estratégicos en ciberseguridad e inteligencia artificial.

Su paso por South Summit 2025 ha acelerado las conversaciones con fondos internacionales, venture builders y corporaciones interesadas en implantar su tecnología.

De hecho, tras recibir los premios en Madrid, la startup ha iniciado una ronda de demos y acuerdos piloto con grandes actores del sector financiero y tecnológico en España, Reino Unido y Alemania.

La empresa está en pleno proceso de ampliación de equipo —actualmente entre 10 y 50 personas— y se prepara para participar en eventos clave del sector, como el Barcelona Cybersecurity Congress 2025 y el próximo Web Summit.