A inteligência artificial é a nova molho que borrifada toda a salada tecnológica que se cozinha nos dias de hoje. A começar por complexos sistemas neurais que prevêem doenças como o câncer, a móveis que aprendem do itinerário ao serviço que todos os dias realizam seus donos, sua presença se intensifica da mesma forma que aumentam suas capacidades: de modo exponencial. Porém, muitas vozes se têm levantado pra alertar sobre isso as possíveis decorrências de que as máquinas comecem a refletir por si mesmas. E para provar esse ponto, pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) treinaram a uma inteligência artificial com os conteúdos menos recomendáveis de toda a rede: os fóruns.
Batizado em honra de Norman Bates, o assassino de “Psicose”, esta rede neural foi submetida a diferentes provas psicológicas depois de ter sido treinada nos cantos mais sórdidos do Reddit. Os testes demonstraram que se aproximava traços patológicos humanos, como o transtorno alucinatorio crônica, dessa maneira os seus criadores o definem como “a primeira inteligência artificial psicopata”.
Como antagonista de Norman, os cientistas treinaram a outra inteligência artificial com imagens de meio ambiente e pessoas (não mortas). As duas se submeteu ao famoso teste de Rorschach, teste das manchas de tinta, que serve para avaliar o estado de ânimo de um paciente. Os resultados foram aterredarores: onde a inteligência artificial “bacana”, via-se um par de pessoas, Norman reconhecia um homem pulando na janela.
- Controle de adrenalina
- As máquinas não conseguem de fato meditar
- Sejuzu (discussão) 00:36 vinte