Postado originalmente por
RKint
Postado originalmente por
Picinin
Postado originalmente por
RKint
Postado originalmente por
Picinin
@
RKint
foi mal, não deu a impressão que tava sendo agressivo não, deu a impressão que você tá falando de Y enquanto a gente tava discutindo sobre X. E parece que é isso realmente.
Então deixa eu esclarecer que ninguém quer que o governo controle a forma como as IA's vão guiar o carro. A discussão é
exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP. Ou seja, quando for impossível evitar o acidente e o carro tenha que, inevitavelmente, escolher entre quem vai morrer. E só nesse casos.
Tranquilo!
Vou tentar ser mais claro então. Suponhamos que exista uma prerrogativa estipulada pelo governo para o dilema do OP. A minha questão é, como o governo pode eficientemente reforçar essa prerrogativa?
A resposta que o Alvinho inclusive sugeriu foi que é muito fácil identificar os fatores do acidente (por exemplo velocidade do carro e condições da pista) e identificar porque a máquina agiu ou não de acordo com o previsto.
Eu rebati que as IA's não podem prever o futuro e saber o que vai acontecer com certeza. Elas fazem estimativas que vão se adaptando ao longo do tempo, baseado na quantidade de situações que ela for aprendendo.
Agora suponha uma situação com A e B onde um dos dois deve morrer. Segundo o governo, A deve sobreviver. Durante o cálculo do algoritmo, o carro decide por uma manobra com 99% de chance de salvar A, porém acaba atingindo e matando A. Como você garante que a empresa não cumpriu com a lei sabendo que é impossível prever todas as situações (ou seja, não é possível ter uma guideline para cada característica dessa situação em especial)? Ou pior ainda, como garantir que dado um conjunto de inputs o output gerado é igual ao esperado sem garantir que as empresas não possam usar seus próprios algoritmos desenvolvidos durante anos nos centros de pesquisa?
Ou seja, minha resposta para a pergunta de "exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP" é: nada, pois é muito difícil garantir enquanto isso mantendo a autonomia das empresas de tecnologia e por isso o governo deve focar em reforçar a segurança das máquinas autônomas.
Isso é bem mais tranquilo de fazer do que você tá falando. Se o carro faz uma manobra que dá errado, qualquer perito hoje te fala a manobra que o carro fez e qual foi a dinâmica do acidente. Daí dá pra concluir, na maioria absoluta dos casos, se o carro fez o que manda a lei ou não. Fora isso, existem inúmeros recursos tecnológicos que ajudam a saber o que aconteceu, e que certamente vão estar MUITO mais evoluídos do que já são hoje (câmeras, sensores, e dispositivos de registros de dados tipo tacógrafo e caixa-preta).
Mas esse é só o controle a posteriori. E, na prática, o controle a posteriori é o de menos.
Um carro que protege o passageiro a todo custo (vamos chamá-lo de carro A) vai vender mais que um carro que pense em minimizar o dano geral (carro B). Mas pra ele vender mais, não basta o carro proteger seus passageiros. O passageiro tem que SABER que o carro A o protege mais que o carro B. Se a lei proíbe o carro de pensar no passageiro antes do bem comum, a empresa não vai poder anunciar que o carro A tem essa vantagem. Caso contrário, ela será autuada/fechada e o carro não poderá ser vendido. Logo, o consumidor não vai saber que o carro A é mais benéfico e por isso ele não vai vender mais do que o carro B. Portanto, a empresa estaria se arriscando a descumprir a lei sem obter vantagem nenhuma. Esse é o contrassenso que eu estava te apontando. Pra que o empresário vai descumprir a lei se ele não vai ganhar nada com isso, a não ser o risco de um processo?
O que vocês não estão entendendo é que esse não é um processo determinístico, mas sim probabilístico. Ou seja, a máquina não
sabe qual o resultado de sua ação, ela pode prever de acordo com o estado das variáveis que ela tem acesso - a mesma coisa que acontece com um humano. Se você está dirigindo e acontece uma situação adversa, você toma uma decisão baseada na sua experiência + habilidade. A máquina faz a mesma coisa e isso não é garantia de que o melhor resultado esperado vai acontecer.
Considere o exemplo mais simples de classificar uma imagem entre ela ser ou não um carro. Humanos são bons em fazer isso e conseguem classificar com praticamente 100% de precisão. Uma máquina aprende a classificar recebendo vários inputs (imagens de carros e de não-carros) e suas classificações. Assim, quando recebe uma nova imagem para processar ela busca em sua "memória", faz a conta da % de ser carro ou não e dá o veredito - que pode estar errado.
Agora voltemos pro nosso caso. Você tem em mãos os logs, todas as leituras dos sensores e footage do acidente. A máquina identifica o cenário e traça um decisão, por exemplo contrária a uma recomendação do governo. Vocês estão querendo responsabilizar a IA por não ser 100% perfeita em prever o futuro - que é o caso de tomar uma decisão baseada em uma situação
desconhecida. É a mesma coisa que obrigar a máquina a classificar corretamente o objeto como um carro sob a pena de multar a empresa responsável.
IA modernamente é 100% sobre tomar decisões em cenários não-previstos e aprender com os erros e acertos para refinar automaticamente o processo de escolha. E estamos falando de dezenas de milhares de variáveis, ou seja, algo impossível para o ser humano de estabelecer. Não existe o governo dizer "dado esses parâmetros lidos do log você deveria ter tomado essa determinada atitude".