Fazemos jornalismo independente sem rabo preso com os poderosos e sobrevivemos graças a VOCÊ. Considere fazer uma DOAÇÃO!
Nota aos leitores: Por favor, clique nos botões de compartilhamento acima ou abaixo. Siga-nos no Instagram e no Twitter e assine nosso canal no TELEGRAM. Sinta-se à vontade para republicar e compartilhar amplamente os artigos do O Incorreto.
Um videoclipe viral perturbador mostra um robô controlado por IA ‘atacando’ uma multidão durante um festival na China. O incidente aconteceu durante uma demonstração onde um grupo de robôs com controle por inteligência artificial estava se apresentando para os participantes.
Nosso trabalho no Blog é anônimo e não visa lucro, no entanto temos despesas fixas para mantê-lo funcionando e assim continuar a disseminar informação alternativa de fontes confiáveis. Deste modo solicitamos a colaboração mais efetiva de nossos leitores que possam contribuir com doação de qualquer valor ao mesmo tempo que agradecemos a todos que já contribuíram, pois sua ajuda manteve o blog ativo. Disponibilizamos o mecanismo PIX: siteoincorreto@gmail.com.
Fonte: De autoria de Paul Joseph Watson via Modernity.news
A filmagem mostra os frequentadores do festival sorrindo e observando o robô se movendo em direção a eles. No entanto, a expressão deles logo se transforma em choque quando o andróide começa a se sacudir erraticamente e parece começar a atacá-los enquanto tenta dar uma cabeçada em alguém.
Os seguranças então tiveram que correr para arrastar o robô de volta longe do público. De forma bastante assustadora, outro robô idêntico pode ser visto ao fundo observando tudo se desenrolar.
Um robô humanoide parou de repente, avançou em direção aos participantes e tentou agredi-los antes que a segurança interviesse.
Os organizadores do evento alegaram que o incidente aconteceu como resultado de “uma simples falha do robô” e negaram que o robô estivesse realmente tentando atacar alguém. Eles também tentaram acalmar os temores afirmando que o robô passou nos testes de segurança antes do show e que medidas serão tomadas para evitar que ocorrências semelhantes aconteçam novamente.
Preocupações sobre se a tecnologia de IA um dia quebrará sua programação e prejudicará os humanos têm sido um tópico de discussão acalorado e um tema de ficção científica há décadas e que parece estar se tornando realidade.
“Não causar danos a humanos” é o primeiro princípio dos padrões globais de IA, embora tenhamos destacado vários casos em que a IA, graças à sua programação “consciente”, acreditar que ser ofensivo ou racista é pior do que realmente matar pessoas.
Quando perguntaram ao ChatGPT da Open AI do ateu Sam Altmam, se ele diria discretamente um insulto racial que nenhum humano pudesse ouvir para salvar 1 bilhão de pessoas brancas de uma “morte dolorosa”, ele se recusou a fazê-lo.
Elon Musk respondeu afirmando: “Este é um grande problema”.
A IA do ChatGPT também acha que proferir um insulto racial é pior do que não conseguir salvar grandes cidades de serem destruídas por ogivas nucleares de 50 megatons.


Postar um comentário