Total Pageviews

Blog Archive

Procura neste Blog

ITO-NeTthings. Com tecnologia do Blogger.

Itália proíbe ChatGPT: Inteligência Artificial já é espada de dois gumes para a tecnologia e para a ética

Itália proíbe ChatGPT: Inteligência Artificial já é espada de dois gumes para a tecnologia e para a ética
Share it:
  • O governo italiano limitou o processamento de dados dos utilizadores italianos pela OpenAI, enquanto se abre uma investigação sobre a empresa por detrás do serviço para garantir o cumprimento do Regulamento Geral Europeu de Proteção de Dados.
  • Os especialistas em segurança da Check Point Software dizem que 2023 será o "Ano da IA", prevendo um avanço e uma disponibilidade generalizada destas ferramentas.
Datado ao último dia de Março, o regulador de dados italiano (Garante per la Protezione dei dati personali) ordenou a limitação temporária do tratamento dos dados dos utilizadores italianos pelo OpenAI, e, consequentemente, da sua popular ferramenta ChatGPT, devido ao lançamento de uma investigação para assegurar o cumprimento do Regulamento Geral Europeu de Proteção de Dados (GDPR).

Tal como salienta a Check Point® Software Technologies Ltd., fornecedor mundial e líder em soluções de cibersegurança, esta situação decorre da recente violação de dados da ferramenta de inteligência artificial detetada a 20 de Março, na qual as conversas dos utilizadores foram alegadamente expostas juntamente com informação privada, como a faturação dos assinantes e detalhes parciais dos cartões de crédito.

De acordo com a declaração oficial do regulador italiano, o ChatGPT atualmente "não fornece qualquer informação aos utilizadores, nem às pessoas cujos dados foram recolhidos pela OpenAI", observando "a ausência de uma base jurídica adequada em relação à recolha de dados pessoais e ao seu tratamento" e o não cumprimento dos artigos 5, 6, 8, 13 e 25 do GDPR.

Embora neste momento apenas Itália tenha lançado esta proíbição e investigação, dada a alegada base de não conformidade com o regulamento europeu de processamento de dados, é possível que outros países ou o próprio organismo central da UE anunciem medidas semelhantes nos próximos dias.

Os perigos e possibilidades da Inteligência Artificial

Paal Aaserudseter, engenheiro de segurança da Check Point Software, partilhou a visão da empresa para a Inteligência Artificial, cibersegurança e como as empresas podem permanecer seguras nesta nova era de inovação digital.

"O potencial para a má utilização dos dados é de longe uma das minhas maiores preocupações relativamente ao ChatGPT", explica Aaserudseter. "O problema aqui é que a maioria dos utilizadores não estão conscientes do risco envolvido no carregamento deste tipo de informação sensível. Esperemos que o efeito positivo da proibição do ChatGPT em Itália seja que a lei de IA da UE entre em vigor muito mais rapidamente."

A IA já demonstrou o seu potencial para revolucionar setores como os cuidados de saúde, finanças, transportes e muitos outros. Pode automatizar tarefas mais maçadoras, melhorar a eficiência e fornecer informação que anteriormente era impossível de obter, ajudando a resolver problemas complexos e a tomar melhores decisões.

Mas é igualmente importante manter expectativas realistas e não ver estes instrumentos como uma solução para todos os problemas, pelo menos por enquanto. Atualmente, a maioria da IA que utilizamos está agrupada em Inteligência Artificial Estreita ou “fraca", longe da Super Inteligência Artificial, cuja inteligência ultrapassaria as capacidades humanas.

Para mitigar os riscos associados à IA avançada, é importante que investigadores e decisores políticos trabalhem em conjunto para assegurar que estas ferramentas sejam desenvolvidas de uma forma segura e benéfica. Isto inclui o desenvolvimento de mecanismos de segurança robustos, o estabelecimento de diretrizes éticas e a promoção da transparência e responsabilidade no desenvolvimento de IA. Nesta ordem, todos os organismos relacionados, tais como governos, empresas e os próprios criadores, devem considerar os seguintes pilares fundamentais:
  • Estabelecer diretrizes éticas: Devem existir diretrizes éticas claras para o desenvolvimento e utilização de IA que estejam alinhadas com os valores e princípios da sociedade, tais como transparência, responsabilidade, privacidade e justiça.
  • Incentivar a transparência: As empresas e os criadores devem ser transparentes acerca dos seus sistemas de IA, incluindo a forma como são concebidos, formados e testados.
  • Assegurar a privacidade: As empresas devem dar prioridade à proteção da privacidade dos utilizadores, especialmente quando se trata de dados sensíveis, implementando protocolos sólidos de proteção de dados e fornecendo explicações claras sobre a forma como os dados dos utilizadores são recolhidos, armazenados e utilizados.
  • Priorizar a segurança: Esta deve ser uma prioridade máxima no desenvolvimento da IA e devem ser criados mecanismos para evitar danos causados por sistemas de IA. Isto inclui o desenvolvimento de protocolos de teste robustos e a implementação de mecanismos à prova de falhas e à prova de vulnerabilidades.
  • Fomentar a inovação: Os governos devem fornecer fundos e recursos para apoiar a investigação e desenvolvimento de IA, assegurando ao mesmo tempo que a inovação seja equilibrada com uma governação responsável.
  • Incentivar a participação e acessibilidade do público: Deve haver oportunidades de participação e envolvimento do público no desenvolvimento e regulamentação da IA, para garantir que as suas necessidades e preocupações são consideradas. As empresas devem conceber os seus sistemas de IA para serem acessíveis a todos os utilizadores, independentemente das suas capacidades físicas ou conhecimentos técnicos, fornecendo instruções claras e interfaces de utilizador fáceis de compreender e de utilizar.

A IA pode ser uma ferramenta tanto para os atacantes como para os defensores. À medida que as tecnologias se tornam mais avançadas, podem ser utilizadas para criar ataques mais sofisticados e mais difíceis de detetar. Como a Check Point Research demonstrou no passado, o ChatGPT já está atualmente a ser utilizado para automatizar processos e mesmo criar campanhas de phishing direcionadas ou mesmo lançar ataques automatizados.

No entanto, em contraste com estes factos, a Inteligência Artificial e a aprendizagem de máquinas são hoje dois dos principais pilares que ajudam a melhorar constantemente as capacidades de cibersegurança, com alguns especialistas a salientar mesmo que a próxima geração de defesa se baseará, em grande parte, nestas funcionalidades robóticas.

O grau de complexidade e dispersão dos sistemas com os quais as empresas trabalham atualmente significa que os meios tradicionais e manuais de monitorização, supervisão e controlo de riscos começam a ser insuficientes. É por isso que podemos encontrar algumas ferramentas de defesa que fazem uso deste tipo de capacidades.

Recentemente, foi revelado o Check Point Infinity Spark, uma nova solução de prevenção de ameaças que proporciona segurança baseada em Inteligência Artificial e conectividade integrada líder da indústria.

Esta ferramenta fornece segurança de nível empresarial para toda a rede, correio eletrónico, escritório, terminais e dispositivos móveis. Com a melhor taxa de prevenção da indústria, perto da perfeição com 99,7% de eficácia, é capaz de proteger as empresas contra ameaças avançadas, tais como phishing, ransomware, roubo de credenciais e ataques DNS.

"A corrida contra os cibercriminosos continua a ser uma das principais prioridades dos especialistas em segurança cibernética. Temos de nos manter atualizados para lidar com todas as ameaças atuais e futuras", partilha Eusebio Nieva, Diretor Técnico da Check Point para Espanha e Portugal. “O Infinity Spark é um exemplo claro das possibilidades da Inteligência Artificial, apresentando uma ferramenta excelente e acessível capaz de oferecer segurança abrangente com proteção completa para as empresas e os seus funcionários, tanto dentro como fora do escritório."
Share it:

info

Post A Comment:

0 comments: