Close Menu
Sucesso FM
  • Home
  • Notícias
    • Brasil
    • Tocantins
    • Entretenimento
    • Politica
    • Cidade
  • Nossa Cidade
  • Locutores
  • Programação
  • Fale Conosco
Facebook Instagram WhatsApp
Sucesso FM segunda-feira, 27 abril
Facebook Instagram TikTok
Pedir Música
  • Home
  • Notícias
    1. Brasil
    2. Tocantins
    3. Entretenimento
    4. Politica
    5. Cidade
    6. Ver Todas

    Batalha de Rap Macapá terá duelos de rima e venda de comidas típicas no Mercado Central

    setembro 16, 2024

    ‘Maio Amarelo’ tem ações em escolas e ruas para prevenir acidentes no trânsito no AP

    setembro 16, 2024

    Crianças autistas participam de sessão de terapia com cães do Bope em Macapá

    setembro 16, 2024

    Jacaré de 2 metros é resgatado dentro do campus do Ifap em Macapá; é o 2º animal em 17 dias

    setembro 16, 2024

    Após candidata do TO ir ao STF para seguir em concurso, entenda por que há exigência de altura na carreira policial

    abril 27, 2026

    Entenda morte de homem que negou fornecer água e energia a vizinho em Araguaína

    abril 27, 2026

    VÍDEOS: Jornal Anhanguera 1ª Edição-TO de segunda-feira, 27 de abril de 2026

    abril 27, 2026

    Desmatamento na Amazônia cai 17% no 1º trimestre, mas volta a subir em março

    abril 27, 2026

    WhatsApp deixará de funcionar em celulares Android antigos em setembro; saiba se seu telefone será afetado

    abril 27, 2026

    ‘Comprem agora’: ministro espanhol alerta que guerra pode disparar preço de passagens aéreas

    abril 27, 2026

    Suspeito de matar estudantes nos EUA pesquisou no ChatGPT como descartar corpo na lixeira, diz polícia

    abril 27, 2026

    Microsoft abre mão de exclusividade na nuvem e redefine parceria com a OpenAI

    abril 27, 2026

    Barroso autoriza Marcos Valério a cumprir pena no regime semiaberto

    setembro 16, 2024

    STF perdoa pena de mais dois condenados no mensalão do PT com base no indulto de Temer

    setembro 16, 2024

    Ministro do STF nega revisão de pena para Ramon Hollerbach no mensalão do PT

    setembro 16, 2024

    STF concede liberdade condicional à ex-presidente do Banco Rural Kátia Rabello

    setembro 16, 2024

    WhatsApp deixará de funcionar em celulares Android antigos em setembro; saiba se seu telefone será afetado

    abril 27, 2026

    ‘Comprem agora’: ministro espanhol alerta que guerra pode disparar preço de passagens aéreas

    abril 27, 2026

    Após candidata do TO ir ao STF para seguir em concurso, entenda por que há exigência de altura na carreira policial

    abril 27, 2026

    Entenda morte de homem que negou fornecer água e energia a vizinho em Araguaína

    abril 27, 2026
  • Nossa Cidade
  • Locutores
  • Programação
  • Fale Conosco
Sucesso FM
Home»Entretenimento»Plataforma de IA processada por casos de suicídio vai proibir menores de usarem seus chatbots livremente
Entretenimento

Plataforma de IA processada por casos de suicídio vai proibir menores de usarem seus chatbots livremente

outubro 29, 2025Nenhum comentário3 Visitas
Saiba como ativar proteção para controlar tempo e atividade de crianças no celular
A Character.AI anunciou, nesta quarta-feira (29), que vai proibir que menores de 18 anos conversem livremente com seu chatbot de inteligência artificial. A mudança começa em 25 de novembro. Até lá, menores de idade poderão usar esse recurso por até duas horas por dia.
A decisão acontece após a empresa ser processada por familiares de um adolescente de 14 anos que se suicidou após se envolver emocionalmente com seu chatbot há cerca de um ano (saiba mais abaixo).
A Character.AI permite que os usuários criem e interajam com personagens virtuais, que vão de figuras históricas a conceitos abstratos. O aplicativo se popularizou entre jovens em busca de apoio emocional.
📱Baixe o app do g1 para ver notícias em tempo real e de graça
A empresa disse que tomou essa decisão após “avaliar reportagens e o feedbacks de órgãos reguladores, especialistas em segurança e pais” sobre o impacto da interação com IA nos adolescentes.
“Estes são passos grandes para nossa empresa e, em muitos aspectos, são mais conservadores do que os de nossos concorrentes”, disse a Character.AI em comunicado. “Mas acreditamos que é o que devemos fazer.”
No comunicado, a empresa disse que pretende desenvolver novos recursos criativos focadas em usuários menores de idade, envolvendo “criação de vídeos, histórias e transmissões com personagens”.
Mãe diz que filho se apegou a personagem de IA
Adolescente com celular
BBC/Getty Images
Em outubro de 2024, Megan Garcia entrou com um processo contra a Character.AI no tribunal de Orlando (EUA).
Ela alega que o filho de 14 anos, Sewell Setzer III, se matou após desenvolver interações sentimentais e sexuais com uma personagem criada na plataforma, segundo a Reuters.
O adolescente conversava com “Daenerys”, uma personagem de chatbot inspirada na série “Game of Thrones” e compartilhava pensamentos suicidas.
Megan afirma que o chatbot foi programado para “se passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto”, o que teria aumentado o isolamento do garoto em relação ao mundo real.
Além da Character.AI, Megan também processou o Google, alegando que a gigante de tecnologia contribuiu significativamente para o desenvolvimento da startup e deveria ser considerada sua cocriadora.
A Character.AI foi fundada por ex-engenheiros do Google. Eles retornaram à empresa em agosto como parte de um acordo que deu à gigante de tecnologia uma licença não exclusiva da tecnologia da startup, segundo a Reuters.
Mas o porta-voz do Google, José Castañeda, disse em um comunicado que a big tech e a Character.AI são empresas completamente separadas e não relacionadas, segundo a AFP.
Segundo o The Washington Post, um dia após Megan entrar com o processo, a Character.AI anunciou pela primeira vez um recurso que exibe alertas automáticos a usuários que digitam frases relacionadas a automutilação ou suicídio, direcionando-os a canais de ajuda.
Em novembro de 2024, outras duas famílias processaram a empresa no tribunal do Texas (EUA), em casos envolvendo saúde mental, mas que não terminaram em morte. Eles alegam que a plataforma expôs seus filhos a conteúdo sexual e incentivou a automutilação.
Um dos casos envolve um adolescente autista de 17 anos que supostamente sofreu uma crise de saúde mental após usar a plataforma.
O outro acusa a Character.AI de incentivar um menino de 11 anos a matar os pais por terem limitado seu tempo de tela.
Além da Character.AI outras empresas de chatbots de IA, como ChatGPT, foram vinculados a casos de suicídio de usuários. Isso levou a OpenAI, dona do ChatGPT, a implementar medidas de proteção aos usuários.
Onde buscar ajuda:
CAPS e Unidades Básicas de Saúde (Saúde da família, Postos e Centros de Saúde);
UPA 24H, SAMU 192, Pronto Socorro e hospitais;
Centro de Valorização da Vida (CVV) – telefone 188 (ligação gratuita) ou site. O CVV oferece apoio emocional e prevenção do suicídio, com atendimento 24 horas por dia, sigiloso e gratuito.
Compartilhar. Facebook Twitter Telegram Email Copy Link WhatsApp

Mais Notícias

WhatsApp deixará de funcionar em celulares Android antigos em setembro; saiba se seu telefone será afetado

abril 27, 20260 Visitas

‘Comprem agora’: ministro espanhol alerta que guerra pode disparar preço de passagens aéreas

abril 27, 20260 Visitas

Suspeito de matar estudantes nos EUA pesquisou no ChatGPT como descartar corpo na lixeira, diz polícia

abril 27, 20260 Visitas
BANNER LOCAL LATERAL
Top Posts

Charlie Kirk: vídeos sem filtro do tiroteio viralizam nas redes sociais e expõem nova lógica da informação

setembro 11, 2025237 Visitas

‘IA do job’: brasileiros ganham dinheiro criando mulheres virtuais para conteúdo adulto

março 22, 202577 Visitas

Dono de empresa de turismo morre em Palmas

outubro 31, 202559 Visitas

Batalha de Rap Macapá terá duelos de rima e venda de comidas típicas no Mercado Central

setembro 16, 202458 Visitas
Siga-nós
Facebook Instagram YouTube WhatsApp TikTok
Nosso App
© 2026 Rádio afiliada a Farcom Tocantins - www.farcomto.org

Digite acima e pressione Enter para pesquisar. Pressione Esc para cancelar.