Postado originalmente por
Picinin
Postado originalmente por
RKint
Postado originalmente por
Picinin
@
RKint
existe também a possibilidade de um defeito mecânico simples. Como o carro perder o freio.
Mas vamos nos ater à sua hipótese. Cai uma árvore na frente do carro e ele é obrigado a desviar. Ele está a 60 km/h e, se bater direto na árvore, é muito provável que você morra. Se desviar à direita, bate em um barranco e você provavelmente morrerá. No lado esquerdo é a porta de uma escola. Você pode entrar na escola e irá atropelar 10 crianças, que provavelmente morrerão, mas você sairá ileso. Tá todo mundo na legalidade, mas se o carro te proteger, morrem 10 crianças. Você acha razoável deixar essa decisão na mão do dono do carro?
Quanto ao controle, pode até ser possível burlar o controle prévio. Mas não será possível burlar o controle a posteriori. Na primeira vez que um carro não cumprir a regra, todo mundo vai saber. Aí é só foder pesado empresa e representantes legais que rapidinho nego começa a cumprir.
Mas o mais importante é que seria um contrassenso a empresa descumprir a regra às escondidas. O interesse em descumprir a regra é meramente comercial (um carro que proteja o dono em qualquer situação venderia mais que um carro "ético"). Se a empresa não pode anunciar essa característica, ela não vai vender mais. Por que diabos então ela deixaria de cumprir a regra?
Sim, existe. Por isso que eu comecei assumindo que o carro anda sempre na "legalidade", até porque o caso de falha mecânica acontece hoje em dia e não existe lei para isso.
Sobre seu exemplo, primeiro gostaria de dizer que é demasiadamente exagerado ao ponto de se tornar irrelevante discutir frente a todos os outros eventos possíveis. Mas vou reduzir a questão para um cenário onde a máquina avalie que qualquer outra saída que não seja acertar um humano signifique a destruição do carro.
A primeira coisa pra entender é que a máquina é mais segura que um humano dirigindo. Por exemplo, pela quantidade de sonares que são capazes de medir situações que o humano simplesmente não consegue avaliar (e.g. acabar com o ponto cego). Então isso por si só já é um avanço muito grande.
Mas de fato vai existir uma porcentagem de casos onde nem a máquina é capaz de evitar a colisão, como você mencionou. Nesse caso acredito que a melhor solução seja criar procedimentos de segurança especificamente para humanos - por exemplo lançar um airbag "externo" (poderia ser feito através do pára choque). Claro que to viajando aqui, mas o intuito é esse mesmo. Agora o que não pode pra mim em nenhuma hipótese é entrar em "suicide mode".
Sobre cumprir ou não a regra, isso é muito difícil de medir também @
Picinin. Quem não garante que o carro entrou pela escola mas achou um caminho longe de uma criança, que se assustou e sem querer andou na direção do carro? Ou uma situação em que realmente não tenha o que fazer tipo 10 crianças atravessando o sinal em fila sem olhar pra rua?
Finalmente, sobre o contrassenso, esse é o principal ponto. A chave é exatamente essa, entender que nenhum engenheiro em sã consciência vai querer assinar o projeto de uma máquina que vai matar humanos. No final o esforço coletivo vai ser para melhorar a segurança (prevenção ou iminência de acidente), e isso é feito melhor deixando a tecnologia andar sozinha, e não colocando o governo para fiscalizar.
Cara, vamos começar do zero, porque eu acho que você não percebeu qual é o escopo da discussão, e por isso tá atacando um monte de espantalhos. Eu te recomendo fortemente reler o OP e os links nele contidos pra relembrar qual é o objeto do tópico.
Que a máquina é mais segura que um humano ninguém discute. Ninguém discute também que o primeiro objetivo da máquina é garantir a segurança de todos. Mas haverá situações (uma minoria absoluta, concordo, mas que ainda existirão) em que IA não conseguirá impedir o acidente e terá que decidir o que fazer. O tópico trata
exclusivamente dessas situações.
Portanto, discussão aqui não é carro autônomo x carro guiado por humano.
O OP trouxe um dilema ético (conhecido como o
Dilema do Bonde), "repaginado" para abarcar uma tecnologia em desenvolvimento (carros autônomos). Por este dilema, que é teórico, haverá a necessidade inarredável de se escolher quem salvar ou não. No dilema original, essa decisão fica nas mãos do maquinista do bonde. No dilema do OP, esse dilema será repassado para a IA.
A discussão evoluiu pro problema econômico: se houver um carro cuja IA vise sempre preservar os ocupantes do carro, e outra que vise causar o menor dano possível, 99% das pessoas comprariam o primeiro caso. Por isso foi dito que a sociedade, por meio do Estado, é quem acabará regrando como o carro deverá proceder nestes casos.
E nem ia falar nada, porque tô tentando discutir de boa, apesar de ter a impressão que você nem tentou entender meu post e já saiu respondendo. É a única coisa que explicaria tanto espantalho vindo de um cara que sempre discute de boa. Mas esse seu último parágrafo não tem pé nem cabeça. Primeiro porque ninguém tá falando em máquina de matar pessoas (que INÚMEROS engenheiros assinam todo dia na indústria bélica...). Segundo porque nós estamos tratando de uma situação de acidente em que NECESSARIAMENTE alguém vai morrer, o que a IA poderá fazer é só escolher se vai morrer X ou Y. E terceiro porque não tem nada a ver com o contrassenso que eu apontei e que você parece não ter lido.