Clique Aqui Quem morre? Os carros autônomos e a máquina moral - Página 15

Lista de Usuários Marcados

Página 15 de 16 PrimeiroPrimeiro ... 513141516 ÚltimoÚltimo
Resultados 141 a 150 de 159
Like Tree129Likes

Tópico: Quem morre? Os carros autônomos e a máquina moral

  1. #141
    World Class Avatar de Kleber
    Data de Ingresso
    11/12/08
    Localização
    Niterói
    Posts
    14.577
    Citação Postado originalmente por Alvinho Ver Post
    Citação Postado originalmente por RKint Ver Post
    Discutir no MaisEV é impossível, tudo vira espantalho.

    Vou responder objetivamente seu último post então: o governo verificar o código IA dos fabricantes NÃO é ok pois eu tenho todo o direito de ter um algoritmo patenteado, por exemplo, que eu não queira revelar. É a mesma coisa que dizer que o governo tem que ter acesso à fórmula da Coca-Cola porque ela pode estar envenenando os consumidores.
    Reclama que é impossível discutir no MaisEV e logo na sequência faz essa comparação esdrúxula, auihauihauiahauihaui.

    É óbvio que o governo tem acesso aos ingredientes da Coca-Cola, exatamente pra não deixar ela envenenar os consumidores. Na verdade todo mundo tem acesso à essa informação, é só você ler no rótulo.

    Sobre ter o direito de ter um algoritmo patenteado que você não queria revelar, não tem como você afirmar isso, as IAs mal existem ainda, não existe muita regulamentação sobre esse setor, tudo pode acontecer.
    Eu não sei se um código desses ai são patenteáveis (programas de computador não são). Mas, um dos pressupostos de uma concessão de patente é você revelar tudo.

    Vc revela tudo que vc descobriu e o governo concede por um prazo a exclusividade de uso da descoberta.

    O que a Coca tem é segredo industrial. Isso significa que se alguém descobrir a fórmula sem fazer uso de meios fraudulentos, a Coca não pode impedir a pessoa de usar. Ou seja, qualquer um que descubra na base da tentativa e engenharia reversa, pode vender seu refrigerante Cola.

    Art. 24. O relatório deverá descrever clara e suficientemente o objeto, de modo a possibilitar sua realização por técnico no assunto e indicar, quando for o caso, a melhor forma de execução.

    Art. 40. A patente de invenção vigorará pelo prazo de 20 (vinte) anos e a de modelo de utilidade pelo prazo 15 (quinze) anos contados da data de depósito.

    ps - O benefício é que segredo industrial não tem prazo.
    Registre-se ou faça login para ver assinaturas.

  2. #142
    Expert Avatar de RKint
    Data de Ingresso
    16/09/11
    Posts
    2.972
    Images
    66
    Perdão pela uso do termo errado mesmo, eu quis dizer a mesma coisa que segredo industrial. Ou seja, eu inventei um novo método que outras pessoas podem usar se descobrirem mas eu tenho a prerrogativa de não revelar ao mundo.
    Kleber likes this.
    Registre-se ou faça login para ver assinaturas.

  3. #143
    World Class Avatar de Picinin
    Data de Ingresso
    20/10/07
    Posts
    11.743
    Citação Postado originalmente por RKint Ver Post
    Citação Postado originalmente por Picinin Ver Post
    @RKint

    foi mal, não deu a impressão que tava sendo agressivo não, deu a impressão que você tá falando de Y enquanto a gente tava discutindo sobre X. E parece que é isso realmente.

    Então deixa eu esclarecer que ninguém quer que o governo controle a forma como as IA's vão guiar o carro. A discussão é exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP. Ou seja, quando for impossível evitar o acidente e o carro tenha que, inevitavelmente, escolher entre quem vai morrer. E só nesse casos.
    Tranquilo!

    Vou tentar ser mais claro então. Suponhamos que exista uma prerrogativa estipulada pelo governo para o dilema do OP. A minha questão é, como o governo pode eficientemente reforçar essa prerrogativa?

    A resposta que o Alvinho inclusive sugeriu foi que é muito fácil identificar os fatores do acidente (por exemplo velocidade do carro e condições da pista) e identificar porque a máquina agiu ou não de acordo com o previsto.

    Eu rebati que as IA's não podem prever o futuro e saber o que vai acontecer com certeza. Elas fazem estimativas que vão se adaptando ao longo do tempo, baseado na quantidade de situações que ela for aprendendo.

    Agora suponha uma situação com A e B onde um dos dois deve morrer. Segundo o governo, A deve sobreviver. Durante o cálculo do algoritmo, o carro decide por uma manobra com 99% de chance de salvar A, porém acaba atingindo e matando A. Como você garante que a empresa não cumpriu com a lei sabendo que é impossível prever todas as situações (ou seja, não é possível ter uma guideline para cada característica dessa situação em especial)? Ou pior ainda, como garantir que dado um conjunto de inputs o output gerado é igual ao esperado sem garantir que as empresas não possam usar seus próprios algoritmos desenvolvidos durante anos nos centros de pesquisa?

    Ou seja, minha resposta para a pergunta de "exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP" é: nada, pois é muito difícil garantir enquanto isso mantendo a autonomia das empresas de tecnologia e por isso o governo deve focar em reforçar a segurança das máquinas autônomas.
    Isso é bem mais tranquilo de fazer do que você tá falando. Se o carro faz uma manobra que dá errado, qualquer perito hoje te fala a manobra que o carro fez e qual foi a dinâmica do acidente. Daí dá pra concluir, na maioria absoluta dos casos, se o carro fez o que manda a lei ou não. Fora isso, existem inúmeros recursos tecnológicos que ajudam a saber o que aconteceu, e que certamente vão estar MUITO mais evoluídos do que já são hoje (câmeras, sensores, e dispositivos de registros de dados tipo tacógrafo e caixa-preta).

    Mas esse é só o controle a posteriori. E, na prática, o controle a posteriori é o de menos.

    Um carro que protege o passageiro a todo custo (vamos chamá-lo de carro A) vai vender mais que um carro que pense em minimizar o dano geral (carro B). Mas pra ele vender mais, não basta o carro proteger seus passageiros. O passageiro tem que SABER que o carro A o protege mais que o carro B. Se a lei proíbe o carro de pensar no passageiro antes do bem comum, a empresa não vai poder anunciar que o carro A tem essa vantagem. Caso contrário, ela será autuada/fechada e o carro não poderá ser vendido. Logo, o consumidor não vai saber que o carro A é mais benéfico e por isso ele não vai vender mais do que o carro B. Portanto, a empresa estaria se arriscando a descumprir a lei sem obter vantagem nenhuma. Esse é o contrassenso que eu estava te apontando. Pra que o empresário vai descumprir a lei se ele não vai ganhar nada com isso, a não ser o risco de um processo?
    Alvinho and Ortega like this.
    Registre-se ou faça login para ver assinaturas.

  4. #144
    World Class Avatar de Kleber
    Data de Ingresso
    11/12/08
    Localização
    Niterói
    Posts
    14.577
    Citação Postado originalmente por RKint Ver Post
    Perdão pela uso do termo errado mesmo, eu quis dizer a mesma coisa que segredo industrial. Ou seja, eu inventei um novo método que outras pessoas podem usar se descobrirem mas eu tenho a prerrogativa de não revelar ao mundo.
    Sim, o governo não deve ter direito a saber a "fórmula" da IA. Mas isso é o de menos, pq basta na primeira merda que der punir a empresa.
    Registre-se ou faça login para ver assinaturas.

  5. #145
    Administrador Avatar de Alvinho
    Data de Ingresso
    08/09/07
    Posts
    48.548
    Citação Postado originalmente por RKint Ver Post
    Agora suponha uma situação com A e B onde um dos dois deve morrer. Segundo o governo, A deve sobreviver. Durante o cálculo do algoritmo, o carro decide por uma manobra com 99% de chance de salvar A, porém acaba atingindo e matando A. Como você garante que a empresa não cumpriu com a lei sabendo que é impossível prever todas as situações (ou seja, não é possível ter uma guideline para cada característica dessa situação em especial)? Ou pior ainda, como garantir que dado um conjunto de inputs o output gerado é igual ao esperado sem garantir que as empresas não possam usar seus próprios algoritmos desenvolvidos durante anos nos centros de pesquisa?
    Cara, uma IA que dirige um carro vai produzir logs que podem ser acessados depois. Nesses logs vão estar a velocidade do carro, o acionamento do freio, as leituras dos sensores, o vídeo das câmeras, o processo que a IA usou pra tomar cada decisão, etc. Então é só você ver o log que você vai entender o que causou o acidente e como a IA se comportou durante o acidente. Isso já elimina, por exemplo, esse problema que você criou, do carro tentar desviar mas a criança pular pra cima dele.

    Sobre o código ser secreto ou não, não existe nenhuma premissa básica que diga que você tem esse direito. A área de IA tá crescendo agora e existem muitas preocupações sobre como isso pode ser usado para o mal. O Elon Musk, dono da Tesla, tem uma organização de pesquisa sobre IA que é totalmente open source, exatamente pra garantir que a IA não faça mal à humanos: https://en.wikipedia.org/wiki/OpenAI. Então essa sua prerrogativa de não querer revelar o código não é um direito ou uma premissa básica como você diz, é apenas a sua opinião. Muitas pessoas da área discordam de você.
    rafaelmb likes this.
    Registre-se ou faça login para ver assinaturas.

  6. #146
    World Class Avatar de gekinganger
    Data de Ingresso
    10/03/08
    Localização
    Vila Velha - ES
    Posts
    8.828
    Na aviação as regras do piloto automático não é do governo?
    Tipo se tiver uma quase colisão quem vem do norte vai pra um lado quem vem do sul vai pra outro...

    Imagine se alguem descobre que o inverso é mais eficiente, e só coloca esse algoritmo em um aviao.
    Então quanto tiver uma quase colisão corre o risco dos dois irem pro mesmo lado.

    Pra carros teria que ser assim tb, pq se a IA do carro souber qual decisão o outro carro vai tomar, já vai ajudar muito a evitar o acidente.
    Registre-se ou faça login para ver assinaturas.

  7. #147
    Professional
    Data de Ingresso
    09/10/13
    Posts
    328
    Citação Postado originalmente por Marckar Ver Post
    Não existe certo ou errado nesta discussão, o que vc vai descobrir é qual linha do pensamento filosófico vc se enquadra: Utilitarista (Stuart Mill) ou Imperativista (Kant).
    O

    Enviado de meu Redmi 3S usando Tapatalk
    Registre-se ou faça login para ver assinaturas.

  8. #148
    Expert Avatar de RKint
    Data de Ingresso
    16/09/11
    Posts
    2.972
    Images
    66
    @Alvinho gênio, obrigado por postar um link com o mesmo comentário que eu já fiz nesse tópico. Essa é uma das iniciativas do Elon Musk (tem gente do YCombinator no meio) e eu acho muito louvável, mas isso não tira o direito de uma pessoa querer confidencialidade sobre algo que ela desenvolva, ou pelo menos não querer que um órgão arbitrário do governo meta o nariz.
    Registre-se ou faça login para ver assinaturas.

  9. #149
    Expert Avatar de RKint
    Data de Ingresso
    16/09/11
    Posts
    2.972
    Images
    66
    Citação Postado originalmente por Picinin Ver Post
    Citação Postado originalmente por RKint Ver Post
    Citação Postado originalmente por Picinin Ver Post
    @RKint

    foi mal, não deu a impressão que tava sendo agressivo não, deu a impressão que você tá falando de Y enquanto a gente tava discutindo sobre X. E parece que é isso realmente.

    Então deixa eu esclarecer que ninguém quer que o governo controle a forma como as IA's vão guiar o carro. A discussão é exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP. Ou seja, quando for impossível evitar o acidente e o carro tenha que, inevitavelmente, escolher entre quem vai morrer. E só nesse casos.
    Tranquilo!

    Vou tentar ser mais claro então. Suponhamos que exista uma prerrogativa estipulada pelo governo para o dilema do OP. A minha questão é, como o governo pode eficientemente reforçar essa prerrogativa?

    A resposta que o Alvinho inclusive sugeriu foi que é muito fácil identificar os fatores do acidente (por exemplo velocidade do carro e condições da pista) e identificar porque a máquina agiu ou não de acordo com o previsto.

    Eu rebati que as IA's não podem prever o futuro e saber o que vai acontecer com certeza. Elas fazem estimativas que vão se adaptando ao longo do tempo, baseado na quantidade de situações que ela for aprendendo.

    Agora suponha uma situação com A e B onde um dos dois deve morrer. Segundo o governo, A deve sobreviver. Durante o cálculo do algoritmo, o carro decide por uma manobra com 99% de chance de salvar A, porém acaba atingindo e matando A. Como você garante que a empresa não cumpriu com a lei sabendo que é impossível prever todas as situações (ou seja, não é possível ter uma guideline para cada característica dessa situação em especial)? Ou pior ainda, como garantir que dado um conjunto de inputs o output gerado é igual ao esperado sem garantir que as empresas não possam usar seus próprios algoritmos desenvolvidos durante anos nos centros de pesquisa?

    Ou seja, minha resposta para a pergunta de "exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP" é: nada, pois é muito difícil garantir enquanto isso mantendo a autonomia das empresas de tecnologia e por isso o governo deve focar em reforçar a segurança das máquinas autônomas.
    Isso é bem mais tranquilo de fazer do que você tá falando. Se o carro faz uma manobra que dá errado, qualquer perito hoje te fala a manobra que o carro fez e qual foi a dinâmica do acidente. Daí dá pra concluir, na maioria absoluta dos casos, se o carro fez o que manda a lei ou não. Fora isso, existem inúmeros recursos tecnológicos que ajudam a saber o que aconteceu, e que certamente vão estar MUITO mais evoluídos do que já são hoje (câmeras, sensores, e dispositivos de registros de dados tipo tacógrafo e caixa-preta).

    Mas esse é só o controle a posteriori. E, na prática, o controle a posteriori é o de menos.

    Um carro que protege o passageiro a todo custo (vamos chamá-lo de carro A) vai vender mais que um carro que pense em minimizar o dano geral (carro B). Mas pra ele vender mais, não basta o carro proteger seus passageiros. O passageiro tem que SABER que o carro A o protege mais que o carro B. Se a lei proíbe o carro de pensar no passageiro antes do bem comum, a empresa não vai poder anunciar que o carro A tem essa vantagem. Caso contrário, ela será autuada/fechada e o carro não poderá ser vendido. Logo, o consumidor não vai saber que o carro A é mais benéfico e por isso ele não vai vender mais do que o carro B. Portanto, a empresa estaria se arriscando a descumprir a lei sem obter vantagem nenhuma. Esse é o contrassenso que eu estava te apontando. Pra que o empresário vai descumprir a lei se ele não vai ganhar nada com isso, a não ser o risco de um processo?
    O que vocês não estão entendendo é que esse não é um processo determinístico, mas sim probabilístico. Ou seja, a máquina não sabe qual o resultado de sua ação, ela pode prever de acordo com o estado das variáveis que ela tem acesso - a mesma coisa que acontece com um humano. Se você está dirigindo e acontece uma situação adversa, você toma uma decisão baseada na sua experiência + habilidade. A máquina faz a mesma coisa e isso não é garantia de que o melhor resultado esperado vai acontecer.

    Considere o exemplo mais simples de classificar uma imagem entre ela ser ou não um carro. Humanos são bons em fazer isso e conseguem classificar com praticamente 100% de precisão. Uma máquina aprende a classificar recebendo vários inputs (imagens de carros e de não-carros) e suas classificações. Assim, quando recebe uma nova imagem para processar ela busca em sua "memória", faz a conta da % de ser carro ou não e dá o veredito - que pode estar errado.

    Agora voltemos pro nosso caso. Você tem em mãos os logs, todas as leituras dos sensores e footage do acidente. A máquina identifica o cenário e traça um decisão, por exemplo contrária a uma recomendação do governo. Vocês estão querendo responsabilizar a IA por não ser 100% perfeita em prever o futuro - que é o caso de tomar uma decisão baseada em uma situação desconhecida. É a mesma coisa que obrigar a máquina a classificar corretamente o objeto como um carro sob a pena de multar a empresa responsável.

    IA modernamente é 100% sobre tomar decisões em cenários não-previstos e aprender com os erros e acertos para refinar automaticamente o processo de escolha. E estamos falando de dezenas de milhares de variáveis, ou seja, algo impossível para o ser humano de estabelecer. Não existe o governo dizer "dado esses parâmetros lidos do log você deveria ter tomado essa determinada atitude".
    Registre-se ou faça login para ver assinaturas.

  10. #150
    Administrador Avatar de Alvinho
    Data de Ingresso
    08/09/07
    Posts
    48.548
    Citação Postado originalmente por RKint Ver Post
    Citação Postado originalmente por Picinin Ver Post
    Citação Postado originalmente por RKint Ver Post
    Citação Postado originalmente por Picinin Ver Post
    @RKint

    foi mal, não deu a impressão que tava sendo agressivo não, deu a impressão que você tá falando de Y enquanto a gente tava discutindo sobre X. E parece que é isso realmente.

    Então deixa eu esclarecer que ninguém quer que o governo controle a forma como as IA's vão guiar o carro. A discussão é exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP. Ou seja, quando for impossível evitar o acidente e o carro tenha que, inevitavelmente, escolher entre quem vai morrer. E só nesse casos.
    Tranquilo!

    Vou tentar ser mais claro então. Suponhamos que exista uma prerrogativa estipulada pelo governo para o dilema do OP. A minha questão é, como o governo pode eficientemente reforçar essa prerrogativa?

    A resposta que o Alvinho inclusive sugeriu foi que é muito fácil identificar os fatores do acidente (por exemplo velocidade do carro e condições da pista) e identificar porque a máquina agiu ou não de acordo com o previsto.

    Eu rebati que as IA's não podem prever o futuro e saber o que vai acontecer com certeza. Elas fazem estimativas que vão se adaptando ao longo do tempo, baseado na quantidade de situações que ela for aprendendo.

    Agora suponha uma situação com A e B onde um dos dois deve morrer. Segundo o governo, A deve sobreviver. Durante o cálculo do algoritmo, o carro decide por uma manobra com 99% de chance de salvar A, porém acaba atingindo e matando A. Como você garante que a empresa não cumpriu com a lei sabendo que é impossível prever todas as situações (ou seja, não é possível ter uma guideline para cada característica dessa situação em especial)? Ou pior ainda, como garantir que dado um conjunto de inputs o output gerado é igual ao esperado sem garantir que as empresas não possam usar seus próprios algoritmos desenvolvidos durante anos nos centros de pesquisa?

    Ou seja, minha resposta para a pergunta de "exclusivamente sobre o que elas devem fazer no caso dos dilemas apontados no OP" é: nada, pois é muito difícil garantir enquanto isso mantendo a autonomia das empresas de tecnologia e por isso o governo deve focar em reforçar a segurança das máquinas autônomas.
    Isso é bem mais tranquilo de fazer do que você tá falando. Se o carro faz uma manobra que dá errado, qualquer perito hoje te fala a manobra que o carro fez e qual foi a dinâmica do acidente. Daí dá pra concluir, na maioria absoluta dos casos, se o carro fez o que manda a lei ou não. Fora isso, existem inúmeros recursos tecnológicos que ajudam a saber o que aconteceu, e que certamente vão estar MUITO mais evoluídos do que já são hoje (câmeras, sensores, e dispositivos de registros de dados tipo tacógrafo e caixa-preta).

    Mas esse é só o controle a posteriori. E, na prática, o controle a posteriori é o de menos.

    Um carro que protege o passageiro a todo custo (vamos chamá-lo de carro A) vai vender mais que um carro que pense em minimizar o dano geral (carro B). Mas pra ele vender mais, não basta o carro proteger seus passageiros. O passageiro tem que SABER que o carro A o protege mais que o carro B. Se a lei proíbe o carro de pensar no passageiro antes do bem comum, a empresa não vai poder anunciar que o carro A tem essa vantagem. Caso contrário, ela será autuada/fechada e o carro não poderá ser vendido. Logo, o consumidor não vai saber que o carro A é mais benéfico e por isso ele não vai vender mais do que o carro B. Portanto, a empresa estaria se arriscando a descumprir a lei sem obter vantagem nenhuma. Esse é o contrassenso que eu estava te apontando. Pra que o empresário vai descumprir a lei se ele não vai ganhar nada com isso, a não ser o risco de um processo?
    O que vocês não estão entendendo é que esse não é um processo determinístico, mas sim probabilístico. Ou seja, a máquina não sabe qual o resultado de sua ação, ela pode prever de acordo com o estado das variáveis que ela tem acesso - a mesma coisa que acontece com um humano. Se você está dirigindo e acontece uma situação adversa, você toma uma decisão baseada na sua experiência + habilidade. A máquina faz a mesma coisa e isso não é garantia de que o melhor resultado esperado vai acontecer.

    Considere o exemplo mais simples de classificar uma imagem entre ela ser ou não um carro. Humanos são bons em fazer isso e conseguem classificar com praticamente 100% de precisão. Uma máquina aprende a classificar recebendo vários inputs (imagens de carros e de não-carros) e suas classificações. Assim, quando recebe uma nova imagem para processar ela busca em sua "memória", faz a conta da % de ser carro ou não e dá o veredito - que pode estar errado.

    Agora voltemos pro nosso caso. Você tem em mãos os logs, todas as leituras dos sensores e footage do acidente. A máquina identifica o cenário e traça um decisão, por exemplo contrária a uma recomendação do governo. Vocês estão querendo responsabilizar a IA por não ser 100% perfeita em prever o futuro - que é o caso de tomar uma decisão baseada em uma situação desconhecida. É a mesma coisa que obrigar a máquina a classificar corretamente o objeto como um carro sob a pena de multar a empresa responsável.

    IA modernamente é 100% sobre tomar decisões em cenários não-previstos e aprender com os erros e acertos para refinar automaticamente o processo de escolha. E estamos falando de dezenas de milhares de variáveis, ou seja, algo impossível para o ser humano de estabelecer. Não existe o governo dizer "dado esses parâmetros lidos do log você deveria ter tomado essa determinada atitude".
    Você que tá focando nisso, e não o contrário. É óbvio que a máquina não sabe o resultado da sua ação, mas isso não importa na discussão, o que a gente tá dizendo é quem vai controlar a decisão que a máquina vai tomar. Se a máquina mostrar no log que analisou x, y e z, e por isso tomou a decisão de fazer o que fez, o resultado pouco importa, o que o governo vai querer saber é se a decisão certa foi tomada.

    E você tá afirmando que carros autônomos vão utilizar deep learning pra tomar suas decisões na versão para o consumidor, mas isso é apenas um chute seu. Acho mais provável que a versão do consumidor não se atualize sozinha.
    Última edição por Alvinho; 25-10-2016 às 00:03.
    Picinin and rafaelmb like this.
    Registre-se ou faça login para ver assinaturas.

Permissões de postagem

  • Você não pode iniciar novos tópicos
  • Você não pode enviar respostas
  • Você não pode enviar anexos
  • Você não pode editar suas mensagens
  •  
© 2007-2019 · MaisEV · Todos os direitos reservados