Se espera que el uso del aprendizaje automático (ML) y la inteligencia artificial (IA) en el sector bancario se dispare en los próximos años, ya que las instituciones financieras se esfuerzan por utilizar los datos y los conocimientos pertinentes para ofrecer experiencias hiperpersonalizadas a los clientes, mejorar la eficiencia operativa y ampliar la oferta de productos y servicios.
Aplicar el ML y la IA en la experiencia del cliente de la banca proporciona información relevante y contextual para mejorar el bienestar financiero general de los clientes, y permiten ofrecer rápidamente experiencias digitales personalizadas, convenientes y coordinadas a los clientes en el canal de su preferencia. Además, impulsan la eficiencia y la productividad en los canales asistidos- conduciendo a una mayor satisfacción-, detectan y mitigan el fraude de forma proactiva, y garantizan el cumplimiento de la normativa.
Ante estos beneficios, es tentador suponer que las máquinas y los algoritmos inteligentes están libres de los defectos humanos, como el error y el sesgo. La verdad, sin embargo, es que los humanos pueden inyectar inadvertidamente sus propios sesgos, tanto conscientes como inconscientes, en los algoritmos que impulsan el aprendizaje y la toma de decisiones de la IA/ML. Como resultado, estas máquinas pueden discriminar a algunos clientes al decidir la aprobación de hipotecas y otros grandes préstamos basándose en datos de entrenamiento erróneos. Los complejos modelos de IA/ML pueden crear un efecto de "caja negra" que impide la transparencia y la rendición de cuentas y hace que el sesgo en estas máquinas inteligentes sea difícil, o incluso imposible de detectar. No es de extrañar que los reguladores gubernamentales hayan empezado a tomar nota, pues instan a la protección de los consumidores y usuarios frente a situaciones de vulnerabilidad social y económica.
Tanto por razones competitivas como regulatorias, los bancos simplemente no pueden permitirse implementar algoritmos de IA/ML que discriminen a los clientes basándose en prejuicios cognitivos, como los ingresos, la religión, el origen étnico o el lugar donde viven.
La sociedad es hoy más multicultural que nunca, y las instituciones financieras deberían aprovecharlo para crear una plantilla diversa e implementar estrategias no solo para minimizar, si no eliminar, el sesgo en sus modelos de IA/ML. Además, pueden crear un equipo multidisciplinar para las iniciativas de IA que esté formado no sólo por desarrolladores y gestores de negocio, sino también por profesionales de RRHH y jurídicos. Tener un equipo diverso es una salvaguarda contra los prejuicios generados por una fuerza de trabajo homogénea.