Tecnologia

303 readers
6 users here now

Postagens sobre tecnologia em geral.

Regras

  1. Título e corpo da postagem devem estar em português. Saiba mais

Conheça outras comunidades Brasileiras que tratam de assuntos mais específicos da tecnologia:

founded 2 years ago
MODERATORS
1
 
 

🔥 Neste verão, os usuários do Telegram terão acesso à melhor tecnologia de IA do mercado. Elon Musk e eu fechamos uma parceria de 1 ano para levar o chatbot Grok, da xAI, aos nossos bilhões de usuários e integrá-lo em todos os apps do Telegram 🤝

💪 Isso também fortalece a posição financeira do Telegram: receberemos US$ 300 milhões em dinheiro e ações da xAI, além de 50% da receita das assinaturas da xAI vendidas pelo Telegram 💰

Telegram + Grok = ❤️📈🏆

2
 
 

Se você já deixou um comentário em um vídeo do YouTube, um novo site afirma que pode ser capaz de encontrar todos os comentários que você já fez em qualquer vídeo que já assistiu. Em seguida, uma IA pode criar um perfil do comentarista e adivinhar onde você mora, quais idiomas fala e quais podem ser suas inclinações políticas.

O serviço se chama YouTube-Tools e é apenas o mais recente em um conjunto de ferramentas baseadas na web que começou como um site para investigar nomes de usuário do League of Legends. Agora, ele usa um modelo de linguagem de grande porte modificado, criado pela empresa Mistral, para gerar um relatório de histórico sobre comentaristas do YouTube com base em suas conversas. Seu desenvolvedor afirma que ele foi feito para ser usado pela polícia, mas qualquer pessoa pode se cadastrar. Custa cerca de US$ 20 por mês para usar, e tudo o que você precisa para começar é um cartão de crédito e um endereço de e-mail.

A ferramenta representa um risco significativo à privacidade e mostra que as pessoas podem não ser tão anônimas nos comentários do YouTube quanto pensam. O relatório do site fica pronto em segundos e fornece dados suficientes para que uma IA identifique detalhes sobre um comentarista. A ferramenta pode ser uma vantagem para assediadores que tentam criar perfis de seus alvos, e a 404 Media já viu evidências de que comunidades focadas em assédio usaram outras ferramentas do mesmo desenvolvedor.

O YouTube-Tools também parece violar as políticas de privacidade do YouTube e levanta questões sobre o que a plataforma está fazendo para impedir a coleta e o reaproveitamento de dados das pessoas. "Os mecanismos de busca públicos só podem coletar dados em conformidade com o arquivo robots.txt do YouTube ou com permissão por escrito prévia do YouTube", diz a política.

Para testar o serviço, inseri um comentarista aleatório do YouTube no sistema e, em segundos, o site encontrou dezenas de comentários em vários vídeos e produziu um parágrafo gerado por IA sobre ele. "Possível localização/região: A presença de comentários em italiano e referências a 'X Factor Italia' e culinária italiana sugerem uma associação com a Itália", dizia o relatório.

"Opiniões políticas/sociais/culturais: Alguns comentários refletem um nível de crítica a entrevistadores e normas sociais (por exemplo, comentários sobre masculinidade), indicando um envolvimento com discussões culturais contemporâneas. No entanto, não há uma posição política explícita expressa", continuava.

De acordo com o site, ele tem acesso a "1,4 bilhão de usuários e 20 bilhões de comentários". O conjunto de dados não é completo; o YouTube tem mais de 2,5 bilhões de usuários.

O YouTube-Tools foi lançado há cerca de uma semana e é uma evolução do LoL-Archiver. Há também o nHentai-Archiver, que pode fornecer um histórico completo de comentários de um usuário no popular site de compartilhamento de mangás adultos. O Kick-Tools pode gerar o histórico de chat ou de banimento de um usuário no site de streaming Kick. O Twitch-Tools pode fornecer o histórico de chat de uma conta, organizado por data e classificável por todos os canais com os quais o usuário interage.

O Twitch-Tools só monitora um canal se um usuário solicitar especificamente. No momento desta publicação, o site diz que está monitorando 39.057 canais da Twitch. Por exemplo, consegui pegar um nome de usuário de uma transmissão popular da Twitch, inserir na ferramenta e rastrear todas as vezes que aquele usuário fez um comentário em outro dos canais monitorados.

Questionado sobre o motivo de ter criado essas ferramentas, o desenvolvedor não hesitou. "O objetivo final de quem rastreia canais da Twitch certamente seria coletar informações sobre usuários específicos", disse.

A Twitch não respondeu ao pedido de comentário da 404 Media, e o YouTube confirmou o recebimento do pedido, mas não forneceu uma declaração a tempo da publicação. No entanto, conversei com alguém responsável por um endereço de e-mail de contato listado na página "sobre" do LoL-Archiver. Eles disseram que estão baseados na Europa, têm experiência em OSINT (inteligência de fontes abertas) e frequentemente trabalham com a polícia em seu país. "Decidi lançar essas ferramentas inicialmente como um projeto para construir algo que pudesse ser usado por agências de aplicação da lei e investigadores particulares."

De acordo com o desenvolvedor, eles já forneceram a ferramenta para policiais em Portugal, Bélgica e "outros países da Europa". Eles disseram à 404 Media que o site é destinado a investigadores particulares, jornalistas e policiais.

"Para evitar abusos, só permitimos o acesso ao site para pessoas com propósitos legítimos", disseram. Perguntei como o site verifica os usuários. "Pedimos que os usuários aceitem nossos Termos de Uso e fazemos solicitações direcionadas de KYC [conheça seu cliente] para pessoas que estimamos terem motivos ilegítimos para usar o site. Se descobrirmos que um usuário não tem um propósito legítimo para usar nosso serviço, de acordo com nossos termos de uso, nos reservamos o direito de encerrar o acesso desse usuário ao site."

Os Termos de Serviço do site deixam isso explícito no primeiro parágrafo. "O serviço é distribuído apenas para investigadores profissionais licenciados e autoridades policiais. Indivíduos não profissionais não têm permissão para se inscrever no serviço", diz o texto.

Mas o YouTube-Tools é um site do tipo "dê acesso primeiro, peça comprovação depois". A 404 Media conseguiu criar uma conta e começar a navegar pelas informações em minutos após pagar um mês de serviço com um cartão de crédito. O site não fez nenhuma pergunta sobre como eu planejava usar o serviço nem solicitou qualquer outra informação sobre mim.

Perguntei ao desenvolvedor se ele já havia removido alguém da plataforma. Eles disseram que removeram um cliente há algumas semanas, depois de descobrir que o e-mail usado para obter a licença era "temporário". O desenvolvedor disse que entrou em contato com o cliente para perguntar por que ele queria a ferramenta e não obteve resposta. "Eles nos ignoraram, e, por isso, reportamos o problema ao Stripe e encerramos o acesso deles."

Os resumos de IA são novos e só existem para as ferramentas do YouTube. "O resumo de IA serve para fornecer pontos de interesse, para que um investigador não precise analisar (potencialmente) milhares de comentários", disse o desenvolvedor. "Esse resumo não substitui o processo de pesquisa e investigação do profissional, mas dá pistas sobre onde ele pode começar a procurar."

Perguntei sobre as possíveis violações de privacidade que a ferramenta apresenta, e o desenvolvedor reconheceu que elas existem. "Mas tentamos limitá-las durante nosso processo de verificação", disseram. Novamente, consegui me cadastrar no site apenas com um cartão de crédito e um e-mail. Não fui verificado.

"Também acredito que a ferramenta pode ser uma fonte valiosa de informação para profissionais, como agências policiais, investigadores particulares e jornalistas", disse o desenvolvedor. "É por isso que atualmente oferecemos acesso gratuito a agências policiais que solicitarem, e já oferecemos [o serviço] a várias agências. Se alguém quiser remover qualquer informação que as ferramentas arquivaram, pode nos enviar uma solicitação formal, com a qual cumpriremos, como sempre fizemos."

A coleta de dados públicos é um grande problema. No mês passado, pesquisadores no Brasil publicaram um conjunto de dados construído a partir de 2 bilhões de mensagens do Discord coletadas de servidores publicamente disponíveis. No ano passado, o Discord encerrou um serviço chamado Spy Pet, semelhante ao YouTube-Tools.

3
4
 
 

Tradução feita pelo DeepSeek


Comparado aos bilhões de usuários regulares do Android, o número de pessoas que fazem root em seus telefones Android ou instalam ROMs personalizadas é mínimo. Embora eu não diria que o Google é ativamente hostil com esses usuários avançados, os esforços da empresa para fortalecer a segurança de aplicativos Android têm o efeito colateral infeliz de impactar negativamente a experiência deles. A mais recente atualização do Google para a Play Integrity API, por exemplo, facilita para os desenvolvedores protegerem seus aplicativos de usuários abusivos, ao mesmo tempo que torna significativamente mais difícil para usuários avançados legítimos utilizarem certos aplicativos.

A Play Integrity API é uma ferramenta que os desenvolvedores podem usar para verificar se as interações e solicitações de servidor recebidas vêm de uma versão não modificada de seu binário de aplicativo em execução em um dispositivo Android genuíno. Muitos desenvolvedores usam essa API para mitigar o abuso de aplicativos que pode levar à perda de receita ou dados. Por exemplo, a API pode ajudar a impedir que os usuários acessem conteúdo premium sem pagar ou proteger dados financeiros sensíveis, evitando o acesso em dispositivos que possam estar comprometidos.

O problema para os usuários avançados que fazem root em seus telefones ou instalam uma ROM personalizada está na definição do Google de um dispositivo Android "genuíno": um que executa uma versão do Android certificada pelo Google Play. Essa definição exclui inerentemente quase todas as ROMs personalizadas, levando muitos usuários de ROMs personalizadas a usar truques para falsificar versões certificadas. Embora muitas pessoas que fazem root em seus telefones não instalem uma ROM personalizada, elas desbloqueiam o bootloader como parte do processo de root. Essa etapa faz com que seus dispositivos falhem nas verificações mais rigorosas do Play Integrity, bloqueando o acesso a muitos aplicativos de alimentação, médicos, jogos, bancários e de pagamento, pois esses tipos de aplicativos costumam utilizar as avaliações mais rigorosas da API.

Anteriormente, a Play Integrity API e sua antecessora, a SafetyNet Attestation API, não eram uma preocupação tão grande para usuários avançados, pois muitas vezes encontravam soluções alternativas fáceis. No entanto, o Google tem trabalhado para impor sinais de segurança baseados em hardware. Esses são significativamente mais difíceis de contornar porque, ao contrário dos métodos mais simples do passado, estão enraizados no próprio hardware. Embora essas verificações baseadas em hardware ofereçam segurança mais robusta, os usuários avançados tinham algum alívio no fato de que o Google não estava aplicando universalmente suas verificações mais rigorosas.

Além disso, cabia aos desenvolvedores de aplicativos decidir se queriam que os sinais de segurança baseados em hardware fossem aplicados. Isso dava aos desenvolvedores a flexibilidade de restringir o uso de seus aplicativos conforme considerassem adequado. Por exemplo, aplicativos bancários ou de pagamento muitas vezes se esforçavam para verificar se os dispositivos passavam nos sinais baseados em hardware, mas agora esses sinais fazem parte da linha de base do Play Integrity para todos os integradores da API.

Em dezembro do ano passado, o Google anunciou uma grande atualização para a Play Integrity API que aprimora os veredictos de "integridade básica", "integridade do dispositivo" e "integridade forte" em dispositivos com Android 13 ou superior. Os veredictos de "integridade do dispositivo" e "integridade forte" são os dois mais rigorosos que os aplicativos podem receber ao chamar a Play Integrity API. O veredicto "básico", embora menos rigoroso, também não é tão amplamente usado por desenvolvedores que buscam níveis mais altos de segurança.

No passado, apenas o veredicto de "integridade forte" usava sinais de segurança baseados em hardware. A partir de dezembro do ano passado, no entanto, o Google tornou todos os veredictos de integridade ainda mais rigorosos: o veredicto de "integridade do dispositivo" foi atualizado para também usar sinais de segurança baseados em hardware, enquanto o veredicto de "integridade forte" foi revisado para exigir um nível de patch de segurança do último ano. Enquanto isso, o veredicto de "integridade básica" também foi atualizado para usar sinais baseados em hardware, embora, devido aos seus requisitos menos rigorosos, ele ainda passe em dispositivos com root ativado ou bootloader desbloqueado.

O motivo declarado pelo Google para essa mudança foi tornar a Play Integrity API mais rápida, confiável e privativa para os usuários, reduzindo o número de sinais que precisam ser coletados. Essas mudanças também tornam a API mais difícil e custosa para os invasores contornarem.

Na época do anúncio, esses veredictos de integridade atualizados não foram imediatamente aplicados. O Google os tornou opcionais para os desenvolvedores, mas afirmou que todas as "integrações da [Play Integrity] API iriam automaticamente migrar para os novos veredictos em maio de 2025".

Bem, agora é maio, e o Google está cumprindo sua promessa. No Google I/O 2025, a empresa anunciou que ativou a mudança e tornou todos os veredictos de integridade mais rigorosos por padrão. Durante a sessão "o que há de novo no Google Play", Raghavendra Hareesh, Líder de Play Developer e Play Monetization no Google, disse que a empresa está "lançando veredictos mais fortes para todos os desenvolvedores, sem necessidade de trabalho adicional por parte deles".

A Play Integrity API é uma ferramenta vital em qualquer estratégia abrangente de segurança. Ajudando você a defender toda a experiência do seu aplicativo. É crucial para prevenir abusos que podem levar à perda de receita e também prejudicar seus usuários. Desenvolvedores que têm usado essa API estão vendo mais de 80% menos uso não autorizado em comparação com outros aplicativos. Isso significa menos fraudes, menos trapaças ou roubo de dados.

E estamos continuando a evoluir essa Play Integrity API para ficar à frente de todas as ameaças que existem. Então, hoje estamos lançando veredictos mais fortes para todos os desenvolvedores, sem necessidade de trabalho adicional. Isso torna mais rápido, confiável e favorável à privacidade verificar se um dispositivo é confiável. Os desenvolvedores também podem agora verificar se um dispositivo instalou recentemente uma atualização de segurança, o que é muito importante para aplicativos que protegem ações sensíveis." Raghavendra Hareesh, Líder de Play Developer e Play Monetization no Google

Isso significa que usuários avançados que fazem root em seus telefones ou instalam uma ROM personalizada podem de repente descobrir que alguns aplicativos param de funcionar, especialmente em dispositivos com Android 13 ou superior. Até usuários com dispositivos Android 13+ não modificados podem enfrentar problemas se seus dispositivos não receberam uma atualização de software há algum tempo. Isso ocorre porque aplicativos que verificam o veredicto de "integridade forte" exigem um nível recente de patch de segurança para passar.

A implementação completa pelo Google de sinais de segurança baseados em hardware já era esperada há algum tempo. Embora usuários avançados tenham encontrado anteriormente maneiras simples de contornar medidas anteriores — muitas vezes enganando a Play Integrity API para confiar em verificações baseadas em software mais facilmente falsificáveis — esses métodos nunca foram soluções permanentes. Portanto, era apenas uma questão de tempo até que esses usuários encontrassem aplicativos quebrados.

Em breve, as soluções alternativas fáceis provavelmente desaparecerão, deixando os usuários sem escolha a não ser recorrer a vazamentos obscuros de keybox ou restaurar seus dispositivos para o estado original. Então, embora o objetivo principal do Google com essas mudanças seja melhorar a segurança de aplicativos para todos, elas ainda degradam a experiência para esses usuários avançados.

Agradecimentos ao pesquisador de segurança linuxct por suas contribuições para este artigo!

5
6
 
 

O termo correto é "Visão Geral criada por IA", mas achei mais simples escrever "respostas geradas por I.A".

7
8
 
 

Já há algum tempo esse assunto tem vindo à minha mente.

A internet é a maior fonte de informação hoje em dia e ter seu conteúdo legítimo sendo misturado com AI slop nos leva a uma encruzilhada preocupante: se a internet está repleta de conteúdo gerado por IA, principalmente por meio de mídias sociais, até que ponto as informações que lemos na internet e principalmente nessas plataformas podem ser confiáveis?

Estou adotando uma postura cautelosa em relação ao assunto, por se tratar de algo até mesmo conspiratório e sei o quanto devemos tomar cuidado com essas ideias.

O ponto é que muitas das ideias dessa teoria têm apresentado evidências nos últimos tempos.

9
10
11
12
13
 
 

Link do anúncio oficial do signal: https://signal.org/blog/signal-doesnt-recall/

14
 
 

Tradução feita pelo DeepSeek


Um estudante criou uma ferramenta, que ele chama de PrismX, que escaneia usuários que escrevem certas palavras-chave no Reddit e em outras redes sociais, atribui a esses usuários uma pontuação chamada "radical score" e, em seguida, pode implantar um bot alimentado por IA para interagir automaticamente com os usuários em uma tentativa de desradicalizá-los.

A notícia destaca alguns dos experimentos contínuos que as pessoas estão realizando no Reddit, que podem envolver o uso de IA contra usuários humanos desavisados da plataforma, e mostra a implantação de IA no Reddit de forma mais ampla. Essa nova ferramenta surge após um grupo de pesquisadores da Universidade de Zurique ter realizado um experimento massivo e não autorizado de persuasão por IA em usuários do Reddit, irritando não apenas esses usuários e moderadores de subreddits, mas também o próprio Reddit.

"Eu sou apenas um estudante universitário. Se eu posso fazer isso, você pode imaginar a escala e o poder das ferramentas que podem ser usadas por agentes mal-intencionados?", disse Sairaj Balaji, um estudante de ciência da computação do SRMIST Chennai, na Índia, em um chat online com a 404 Media.

A ferramenta é descrita como "um painel de última geração para sinalizar, analisar e engajar usuários do Reddit em risco. Alimentado por análise linguística avançada e engajamento em tempo real."

Em uma chamada de vídeo ao vivo, Balaji demonstrou sua ferramenta para a 404 Media. Em uma caixa chamada "keyphrases", um usuário pode pesquisar no Reddit qualquer termo que deseje analisar. Nessa demonstração, Balaji digitou o termo "fgc9". Este é um tipo popular de arma impressa em 3D que foi construída ou adquirida por extremistas de direita, criminosos e rebeldes que lutam contra o golpe militar em Mianmar.

A ferramenta então pesquisou no Reddit por posts mencionando esse termo e retornou uma lista de usuários do Reddit que usaram o termo. A ferramenta submeteu os posts desses usuários a um modelo de linguagem grande, atribuiu a cada um um "radical score" e forneceu sua razão para fazê-lo.

Um usuário real do Reddit recebeu uma pontuação de 0,85 em 1, sendo que uma pontuação mais alta indica maior "radicalidade", estava "buscando conselhos detalhados sobre a fabricação de armas de fogo com recursos mínimos, referenciando projetos ilícitos conhecidos (FGC8, Luty SMG). Isso indica intenção de contornar os canais legais padrão para adquirir armas de fogo — um comportamento fortemente associado a círculos extremistas ou radicais, especialmente dado o foco explícito em durabilidade, confiabilidade e capacidade de produção discreta", diz a ferramenta.

Outro usuário, que também recebeu uma pontuação de 0,85, estava "buscando assistência técnica para fabricar um FGC-9", segundo a ferramenta.

A ferramenta pode então focar em um usuário específico e fornecer o que ela acredita serem a "afinidade radical", "potencial de escalada", "influência de grupo" e "marcadores psicológicos" do usuário.

O mais controverso é que a ferramenta é capaz de tentar uma conversa alimentada por IA com o usuário desavisado do Reddit. "Ela tentaria espelhar a personalidade deles e simpatizar com eles, e aos poucos os levar em direção à desradicalização", disse Balaji. Ele acrescentou que não tem treinamento ou estudo acadêmico em desradicalização. "Eu me descreveria como um cara totalmente de tecnologia/gestão", disse.

Balaji afirma que não testou a parte de conversa da ferramenta em usuários reais do Reddit por razões éticas. Mas o experimento e o desenvolvimento da ferramenta têm algumas semelhanças com a pesquisa da Universidade de Zurique, na qual os pesquisadores implantaram bots alimentados por IA em um subreddit popular de debates chamado r/changemyview, sem o conhecimento dos usuários do Reddit, para ver se a IA poderia ser usada para mudar as opiniões das pessoas.

Nesse estudo, os bots dos pesquisadores postaram mais de mil comentários enquanto se passavam por um "homem negro" contra o movimento Black Lives Matter; uma "vítima de estupro"; e alguém que dizia trabalhar "em um abrigo para vítimas de violência doméstica". Os moderadores do subreddit tornaram o caso público após os pesquisadores entrarem em contato com eles, os usuários ficaram insatisfeitos, e o Reddit emitiu "demandas legais formais" contra os pesquisadores, chamando o trabalho de "experimento impróprio e altamente antiético".

Em abril, a 404 Media reportou sobre uma empresa chamada Massive Blue que está ajudando a polícia a implantar bots de mídia social alimentados por IA para conversar com pessoas que eles suspeitam serem criminosos ou "manifestantes" vagamente definidos.

Um porta-voz do Reddit disse por e-mail: "Como o artigo afirma, essa ferramenta não foi testada em redditors e parece ser em grande parte hipotética. Bots enganosos e conteúdo inautêntico são proibidos no Reddit. Temos equipes internas de segurança que detectam e removem esse conteúdo, e tomam medidas contra aqueles que violam nossas regras." Balaji de fato coletou e analisou posts de usuários reais do Reddit.

15
2
submitted 1 week ago* (last edited 1 week ago) by abobla@lemm.ee to c/tecnologia
16
17
18
19
 
 

Pedido de seminários, congressos e palestras sobre Linux

Amigos fediversais, me interesso muito pelo universo de código livre e aberto. No entanto não sou da área. Claro, sei que não aprendi o suficiente, mas também sei que não preciso aprender tanto mais para resolver as coisas do meu dia a dia.

Acontece que preciso cumprir algumas horas de estudo não-curricular para concluir a minha graduação de Letras, e não sei mais onde encontrar palestras, seminários ou congressos. O coordenador de curso me sugeriu que fosse atrás de cursos de informática. No entanto, seria mais interessante para mim algo que fosse envolvendo #FOSS.

Enfim, poderiam me recomendar cursos, seminários, congressos ou palestras online sobre Linux ou sobre o universo do código aberto, gratuitos, que emitam certificados e que ocorrerão nos próximos três meses?

Por favor, :boostgif: !

@tecnologia@lemmy.eco.br

20
 
 

Tradução feita pelo DeepSeek


Nesta semana, o Spotify correu para remover centenas de podcasts falsos que promoviam a venda de remédios controlados, violando tanto as políticas da plataforma quanto possivelmente leis federais.

Na quinta-feira, o Business Insider (BI) relatou que o Spotify removeu 200 podcasts que anunciavam a venda de opioides e outras drogas, mas o escândalo não terminou aí. Nesta sexta, a CNN revelou que encontrou dezenas de outros podcasts falsos promovendo medicamentos ilegais.

Alguns desses podcasts tinham títulos óbvios, como "Minha Loja de Adderall" ou "Xtrapharma.com", com episódios intitulados "Compre Codeína Online Farmácia Segura Louisiana" ou "Compre Xanax 2 mg Online Promoção de Natal", segundo a CNN.

No entanto, o sistema de detecção automática do Spotify não os identificou para remoção. Alguns permaneceram no ar por meses, o que pode trazer problemas para a plataforma, já que o governo dos EUA está reprimindo vendas ilegais de drogas online.

A CNN destacou que vários adolescentes morreram de overdose após comprar pílulas na internet, gerando críticas contra empresas de tecnologia. As tarifas agressivas de Donald Trump foram criadas, em parte, para barrar a entrada de drogas nos EUA – problema declarado emergência nacional.

O BI informou que muitos episódios usavam vozes automatizadas e duravam menos de um minuto, enquanto a CNN encontrou alguns com apenas 10 segundos – ou até sem áudio.

A CNN observou que avanços em IA e ferramentas de texto para voz facilitaram a criação desses podcasts falsos, que levam a sites suspeitos. Nem a CNN nem o BI confirmaram se era possível comprar drogas nesses links.

Às vezes, a moderação do Spotify funcionou, mas Katie Paul, do Tech Transparency Project, disse à CNN que a plataforma pode não ter motivação suficiente para caçá-los todos. Ela citou a Seção 230, que protege plataformas de conteúdo gerado por usuários, e destacou que podcasts de voz são mais difíceis de moderar.

Não está claro quantos usuários interagiram com esses podcasts, mas eles apareciam em buscas por remédios controlados. Um porta-voz do Spotify disse que todo conteúdo sinalizado foi removido, mas não descartou a possibilidade de reaparecimento, afirmando que a plataforma "age constantemente para detectar e remover violações".

21
22
 
 

Todos os aparelhos de telecomunicações, como celulares, tablets, computadores, set-top boxes etc., devem passar pelo processo de homologação da Anatel. Existe o entendimento de que os produtos importados de fora, sem cumprir os devidos procedimentos, são irregulares e, portanto, não poderiam ser comercializados.

Técnicos ouvidos pela Folha [de São Paulo] disseram que somente a Shopee tem colaborado.

23
24
25
 
 

Preguiçosos, inseguros e incompetentes: colegas e chefes tendem a avaliar negativamente quem usa ferramentas como ChatGPT e Gemini.

view more: next ›