IA generativa: petição contra e avanços fantásticos
Hoje, o mundo digital testemunhou notícias com uma justaposição notável. Por um lado, vários artistas se uniram numa petição contra práticas eticamente duvidosas para treinamento de IA. A petição resultante é uma prova do desejo coletivo por transparência e respeito quando se trata de IA utilizando materiais criativos.
Por outro lado, no mesmo dia, a Stability AI anunciou sua arte mais potente em modelos de geração de imagens até agora. Com isso, a startup empurra os limites da narrativa visual mais longe do que nunca! As imagens abaixo são um exemplo do que a plataforma realiza (fonte).
Para as empresas de tecnologia e startups de IA, as ferramentas de IA generativa são uma forma de aumentarmos nossa criatividade. Para os artistas que têm seus materiais usados no treinamento desses modelos, a prática é roubo. Onde a inovação encontra a responsabilidade? Como desenvolvedores, precisamos defender práticas éticas de IA. Mas também temos que valorizar a incrível arte que está sendo desenvolvida pela Stability AI hoje!
Apple está 'preocupada' com transformações de fotos com IA
Para adicionar mais confusão ao dia, a Apple anunciou que está ‘preocupada’ com IA transformando fotos reais em ‘fantasia’. Mais especificamente, a empresa está preocupada com uso de sua ferramenta com IA para edições de fotos. Embora a preocupação possa ser nobre, é estranho ver que as mesmas empresas que criam esse tipo de ferramenta se digam preocupadas com seu uso.
Processo culpa chatbot de IA por morte de adolescente
Character.ai é uma plataforma de IA que utiliza modelos avançados de linguagem para gerar interações semelhantes às humanas. Ela possibilita que seus usuários interajam em conversas realistas com uma variedade de personagens, incluindo figuras fictícias e celebridades. Hoje, a plataforma virou notícia mundial.
A Character.ai está sendo alvo de uma ação judicial após o suicídio de um menino de 14 anos. Sua mãe alega que ele ficou obcecado por um chatbot na plataforma. Conforme o The New York Times, o menino passou meses conversando com chatbots no aplicativo da Character.ai. Aparentemente, o rapaz desenvolveu um apego emocional a um bot em particular e confessou ter pensamentos suicidas para ele. Ele também enviou uma mensagem ao bot pouco antes de sua morte. Em resposta ao ocorrido, a Character.AI disse que lançaria uma série de novos recursos de segurança.