foi mal, não deu a impressão que tava sendo agressivo não, deu a impressão que você tá falando de Y enquanto a gente tava discutindo sobre X. E parece que é isso realmente.
Então deixa eu esclarecer que ninguém quer que o governo controle a forma como as IA's vão guiar o carro. A discussão é exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP. Ou seja, quando for impossível evitar o acidente e o carro tenha que, inevitavelmente, escolher entre quem vai morrer. E só nesse casos.
Tranquilo!
Vou tentar ser mais claro então. Suponhamos que exista uma prerrogativa estipulada pelo governo para o dilema do OP. A minha questão é, como o governo pode eficientemente reforçar essa prerrogativa?
A resposta que o Alvinho inclusive sugeriu foi que é muito fácil identificar os fatores do acidente (por exemplo velocidade do carro e condições da pista) e identificar porque a máquina agiu ou não de acordo com o previsto.
Eu rebati que as IA's não podem prever o futuro e saber o que vai acontecer com certeza. Elas fazem estimativas que vão se adaptando ao longo do tempo, baseado na quantidade de situações que ela for aprendendo.
Agora suponha uma situação com A e B onde um dos dois deve morrer. Segundo o governo, A deve sobreviver. Durante o cálculo do algoritmo, o carro decide por uma manobra com 99% de chance de salvar A, porém acaba atingindo e matando A. Como você garante que a empresa não cumpriu com a lei sabendo que é impossível prever todas as situações (ou seja, não é possível ter uma guideline para cada característica dessa situação em especial)? Ou pior ainda, como garantir que dado um conjunto de inputs o output gerado é igual ao esperado sem garantir que as empresas não possam usar seus próprios algoritmos desenvolvidos durante anos nos centros de pesquisa?
Ou seja, minha resposta para a pergunta de "exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP" é: nada, pois é muito difícil garantir enquanto isso mantendo a autonomia das empresas de tecnologia e por isso o governo deve focar em reforçar a segurança das máquinas autônomas.
Isso é bem mais tranquilo de fazer do que você tá falando. Se o carro faz uma manobra que dá errado, qualquer perito hoje te fala a manobra que o carro fez e qual foi a dinâmica do acidente. Daí dá pra concluir, na maioria absoluta dos casos, se o carro fez o que manda a lei ou não. Fora isso, existem inúmeros recursos tecnológicos que ajudam a saber o que aconteceu, e que certamente vão estar MUITO mais evoluídos do que já são hoje (câmeras, sensores, e dispositivos de registros de dados tipo tacógrafo e caixa-preta).
Mas esse é só o controle a posteriori. E, na prática, o controle a posteriori é o de menos.
Um carro que protege o passageiro a todo custo (vamos chamá-lo de carro A) vai vender mais que um carro que pense em minimizar o dano geral (carro B). Mas pra ele vender mais, não basta o carro proteger seus passageiros. O passageiro tem que SABER que o carro A o protege mais que o carro B. Se a lei proíbe o carro de pensar no passageiro antes do bem comum, a empresa não vai poder anunciar que o carro A tem essa vantagem. Caso contrário, ela será autuada/fechada e o carro não poderá ser vendido. Logo, o consumidor não vai saber que o carro A é mais benéfico e por isso ele não vai vender mais do que o carro B. Portanto, a empresa estaria se arriscando a descumprir a lei sem obter vantagem nenhuma. Esse é o contrassenso que eu estava te apontando. Pra que o empresário vai descumprir a lei se ele não vai ganhar nada com isso, a não ser o risco de um processo?
"
O que vocês não estão entendendo é que esse não é um processo determinístico, mas sim probabilístico. Ou seja, a máquina não sabe qual o resultado de sua ação, ela pode prever de acordo com o estado das variáveis que ela tem acesso - a mesma coisa que acontece com um humano. Se você está dirigindo e acontece uma situação adversa, você toma uma decisão baseada na sua experiência + habilidade. A máquina faz a mesma coisa e isso não é garantia de que o melhor resultado esperado vai acontecer.
Considere o exemplo mais simples de classificar uma imagem entre ela ser ou não um carro. Humanos são bons em fazer isso e conseguem classificar com praticamente 100% de precisão. Uma máquina aprende a classificar recebendo vários inputs (imagens de carros e de não-carros) e suas classificações. Assim, quando recebe uma nova imagem para processar ela busca em sua "memória", faz a conta da % de ser carro ou não e dá o veredito - que pode estar errado.
Agora voltemos pro nosso caso. Você tem em mãos os logs, todas as leituras dos sensores e footage do acidente. A máquina identifica o cenário e traça um decisão, por exemplo contrária a uma recomendação do governo. Vocês estão querendo responsabilizar a IA por não ser 100% perfeita em prever o futuro - que é o caso de tomar uma decisão baseada em uma situação desconhecida. É a mesma coisa que obrigar a máquina a classificar corretamente o objeto como um carro sob a pena de multar a empresa responsável.
IA modernamente é 100% sobre tomar decisões em cenários não-previstos e aprender com os erros e acertos para refinar automaticamente o processo de escolha. E estamos falando de dezenas de milhares de variáveis, ou seja, algo impossível para o ser humano de estabelecer. Não existe o governo dizer "dado esses parâmetros lidos do log você deveria ter tomado essa determinada atitude".
O Alvinho já te respondeu ali abaixo. A análise não vai ser pelo resultado, mas pela "intenção".
Anyway, como eu disse no último post e você ignorou novamente, essa discussão é completamente irrelevante.
Porque o governo NÃO precisa fiscalizar, ele só precisa proibir. Uma vez proibido, a empresa perde qualquer vantagem competitiva em descumprir a lei.
Vou dar uma exemplo pra tentar deixar ainda mais claro:
Os carros autônomos começam a ser vendidos ao público. A Mercedes decide que o carro dela vai ser orientado a dar prioridade à segurança dos ocupantes. A Tesla decide que isso é antiético e que, por isso, seus carros vão ser orientados a minimizar o número de mortes, mesmo que isso significa negar prioridade aos ocupantes do carro. Apesar de o Tesla ter um melhor custo-benefício, o consumidor acha que o critério mais importante na escolha do carro é a orientação sobre o que fazer em caso de acidente inevitável. Por isso, a Mercedes domina 90% do mercado.
O governo, vendo um prejuízo à coletividade e aos pedestres, proíbe que os carros deem prioridade aos próprios ocupantes, sob pena de multas pesadíssimas e fechamento da empresa.
O que vai acontecer?
A Mercedes tem três opções:
1) Continuar fabricando carros que priorizam os ocupantes e anunciando essa característica.
2) Cumprir a lei.
3) Continuar fabricando carros que priorizam os ocupantes, mas deixando de anunciar essa característica para não sofrer as sanções da lei.
Na hipótese 1, a empresa vai fechar e quebrar. Ou seja, é inviável.
Na hipótese 2, a empresa vai perder parte do mercado, mas continuará funcionando.
Na hipótese 3, a empresa vai perder a mesma fatia do mercado que perderia se tivesse cumprido a lei, já que o consumidor pensa que os carros da Mercedes não dão mais prioridade aos ocupantes do veículos. Mas ela ainda estará correndo o risco de se descobrir posteriormente que ela descumpre a lei, o que pode acarretar o fechamento da empresa.
Agora me explica: quem, em sã consciência, escolheria a opção 3?
Conclusão: não precisa haver fiscalização, porque a empresa só terá uma vantagem sobre a concorrência se puder anunciar que seu carro prioriza os ocupantes. Em outras palavras, ela só terá vantagem se CONFESSAR que descumpre a lei. SE ela confessa, não é preciso fiscalizar.
Acho que seria muito útil se os veículos tivessem uma IA que levasse em conta os desejos do motorista. Porém, da maneira apropriada. Aqueles motoristas que optassem por sacrificar inocentes em caso de falha mecânica do seu próprio veículo deveriam ser os primeiros a serem sacrificados em caso de acidente. Inclusive, em casos extremos (como aqueles que optariam, em caso de falha nos freios, por matar 500 crianças) acredito que o veículo conduziria o motorista diretamente ao precipício mais próximo.
Eu ainda acho que o governo nao deveria se meter e o carro deveria seguir pelo que o motorista decidisse. Se ele matar as crianças ele vai pagar por isso, sabendo que o carro é dele e que toda responsabilidade é dele. Se ele bater num muro ele pode se salvar e se ele cair no precipício se ferrou. O governo tem que ficar bem quietinho e só meter os caras na prisão ou no cemitério.
Vi uma matéria que a maioria dos acidentes do carro do Google são batidas em sua traseira.
O carro é cauteloso demais em cruzamentos. O motorista atrás acha que o carro do Google vai atravessar, o que um ser humano normal faria, mas para e causa o acidente.