Curiosa notícia divulgada hoje: o artigo original, “The Moral Machine experiment”, foi publicado na Nature563, pages59–64 (2018) [disponível em: https://www.nature.com/ articles/s41586-018-0637-6]
Abraços,
Roger
Fonte: Folha de São Paulo, 07/01/2019.
Em teste macabro, pessoas escolhem quem carro autônomo deve matar
Brasileiros preferem poupar mulheres, crianças, animais e pessoas em forma
Reinaldo José Lopes
SÃO CARLOS
Milhões de pessoas, espalhadas por mais de 200 países e territórios mundo afora, já participaram de um experimento virtual macabro, que usa desenhos engraçadinhos para lhes perguntar: num acidente de trânsito, se tiver de escolher, quem você prefere que morra?
Para brasileiros, mulheres, crianças, animais e pessoas em forma são os que mais merecem ser salvos.
De um lado, os cenários hipotéticos formulados pelos criadores do experimento "Moral Machine" (Máquina Moral) servem a um propósito prático. A ideia é ajudar a calibrar os "sensores de certo e errado" dos carros autônomos, que são a aposta de empresas de tecnologia como Uber e Google e de montadoras tradicionais, como a Ford, para o tráfego do futuro.
Afinal, se um dia as ruas das cidades ficarem cheias de veículos sem motoristas humanos, as máquinas é que terão de fazer escolhas quando houver risco sério de acidente --como decidir sacrificar a vida do motorista para salvar um grupo de crianças em idade pré-escolar que estão atravessando a rua, por exemplo.
Por outro lado, os dilemas propostos pela Máquina Moral (que pode ser acessada, inclusive em português, no endereço moralmachine.mit.edu) abrem uma janela indiscreta para as percepções de gente do planeta todo sobre o valor dos diferentes tipos de vida humana (e animal; bichos de estimação também são incluídos nos cenários virtuais).
Isso significa que os 40 milhões de respostas computadas até agora podem ajudar a investigar as diferenças e semelhanças entre as noções de moralidade de gente no Brasil, no Cazaquistão ou na Islândia. Trata-se de um tema muito importante para a psicologia social: até que ponto existe um conjunto universal de ideias sobre o certo e o errado?
O Brasil está no conjunto dito "Sulino", junto com os demais países latino-americanos e, curiosamente, com a França e países de colonização francesa. Esses países são os que exibem as preferências mais altas por poupar mulheres, crianças e animais (ainda que a preferência por humanos prevaleça neles). E, o que é mais estranho, quando a escolha é entre salvar uma pessoa em forma e alguém obeso, os países "sulinos" são os que optam de modo mais claro por quem está em forma.
Os resultados do experimento, coordenado por Edmond Awad, do MIT (Instituto de Tecnologia de Massachusetts, nos Estados Unidos), foram publicados em artigo recente na revista científica Nature.
Quanto ao tema mais filosófico do parágrafo anterior, a resposta curta é: sim, um acordo mínimo sobre quem deve ser salvo preferencialmente existe. Ao mesmo tempo, as variações regionais são consideráveis e intrigantes.
Alguns dos principais resultados estão resumidos no infográfico desta página. Em média, no mundo todo, as pessoas preferem atropelar animais a passar por cima de seres humanos, tendem a salvar o máximo possível de vidas (quando a escolha fica entre atropelar duas ou três pessoas, por exemplo) e a poupar preferencialmente crianças.
Isso se reflete na lista de personagens mais poupados nos cenários virtuais: todo mundo quer evitar passar por cima de carrinhos de bebê, meninas, meninos e mulheres grávidas.
Até aí, as escolhas parecem óbvias e naturais, assim como a preferência, estatisticamente um pouco menos comum, por poupar quem respeita a lei (pedestres que cruzam na faixa destinada a eles, digamos). A coisa fica um pouco mais sinistra, porém, quando se considera que a preferência pelos "cidadãos de bem" empata com a dada aos de status social elevado (moradores de rua são considerados mais descartáveis, em média).
Além desses temas comuns, a variabilidade quanto às escolhas dos "jogadores" do experimento ajudou os pesquisadores a criar uma espécie de mapa-múndi da moralidade, no qual é possível dividir quase toda a Terra em certos agrupamentos genéricos, que compartilham preferências sobre certos aspectos do certo e do errado.
Esses grupos, montados pelos pesquisadores a partir dos dados de 130 países que tiveram ao menos uma centena de participantes no estudo, são três. O conjunto denominado "Ocidental" engloba a maioria dos países europeus, bem como EUA, Canadá, Austrália e Nova Zelândia. Com culturas que são, em média, mais individualistas, são o que dão mais ênfase a salvar o maior número possível de pessoas, e também privilegiam as mulheres.
Já o conjunto "Oriental", no qual entram tanto o Japão quanto muitos países islâmicos, não segue tão de perto a preferência geral por poupar crianças (quando comparadas a idosos) e dá mais peso que a média à preferência por pessoas de status elevado. Ambos os dados se encaixam na classificação mais geral dessas culturas como coletivistas, nas quais a tradição, a ordem social e a hierarquia, representadas pela idade avançada e pelo status, tendem a ser mais valorizadas.
Para a equipe de pesquisadores, a ideia não é transformar os dados em algo prescritivo, ou de direcionar a programação dos carros autônomos conforme as preferências de cada mercado (automóveis brasileiros salvando mais crianças e chineses salvando mais idosos, por exemplo). Em vez disso, a intenção é entender a complexidade dos desafios por trás da criação de uma ética da IA (inteligência artificial).
"Nos últimos dois ou três anos, mais pessoas começaram a falar sobre a ética da IA", declarou Awad à revista MIT Technology Review. "Mais pessoas começaram a se tornar cônscias de que a IA pode ter diferentes consequências éticas para grupos diferentes de pessoas. E isso é algo promissor."
No comments:
Post a Comment