A grande questão colocada pela reportagem é como a IA (Inteligência Artificial) pode ajudar nas tomadas de decisões dentro de grupos de pessoas em ambientes empresariais. A analogia feita é com o conceito de inteligência coletiva, presente no mundo animal, como no caso da cooperação das abelhas, ou seja, cada indivíduo do grupo tem uma certa autonomia para realizar o seu trabalho, mas ao mesmo tempo pode contribuir para o trabalho do todo. A IA pode ser um mecanismo que ajude neste processo, mesmo que o texto não explique muito bem como seria. Entretanto, os articuladores desta ideia apontam que na maioria das empresas existem deficiências nas tomadas de decisões, principalmente porque elas não são baseadas em dados. A IA poderia ser um desses embasamentos, colaborando para que a decisão tomada seja justificada a partir de dados de demandas internas do grupo e não só através da opinião de um gestor. A questão que coloco então é: se o IA é, grosso modo, um articulador que apresenta de uma forma coerente, e se possível muito próxima do discurso humano, de dados dispersos presentes nos bancos de dados que alimentam as informação da internet, não seria possível então que ele seja usado exatamente de maneira contrária ao que se propõem o texto? Isso porque, como o próprio texto aponta, as informações que ele buscará serão sempre informações passadas, de modos de como gestores do mundo inteiro resolveram problemas semelhantes. Isso é extremamente perigoso, pois via de regra nossas decisões em situações sociais humanas (e o ambiente de trabalho é uma delas) exigem respostas muito particulares e exatamente por conta desta particularidades, inéditas. Mas a IA e o ineditismo paradigmático, pelo menos por enquanto caminham separados. O risco é que tenhamos decisões baseadas na IA que apenas sejam estereótipos de decisões anteriores e pior, com os mesmos vieses de preconceitos em determinados assuntos que já estão presentes na sociedade. Como paralelo, vale lembrar de como os primeiros algoritmos de reconhecimento facial davam respostas de cunho racista por exatamente utilizarem bancos de dados que foram montados a partir de imagens só de pessoas brancas, pois na sociedade racista ocidental, rostos brancos eram a maioria nos bancos de dados. Ou seja, talvez a caixa preta da tomada de decisões, não esteja realmente disponível para ser aberta. O texto de certa forma também previne sobre isso, dizendo que a IA não deverá responder sozinha pelas tomadas de decisão, mas então qual seria sua grande contribuição? Uma ferramenta mais avançada de análise de dados? Não muito diferente do que temos hoje (embora muito mais rápida). Dá a impressão de ser um daqueles templates de apresentação em power point que, embora ajudem a construir uma apresentação de forma rápida, sempre será inútil se o conteúdo da apresentação não for bom. Enfim, são algumas questões para pensarmos.