Implicações
Na cibersegurança
A Check Point Research e outros observaram que o ChatGPT era capaz de escrever e-mails de phishing e malware, especialmente quando combinado com o OpenAI Codex.[93] Os pesquisadores da CyberArk demonstraram que o ChatGPT pode ser usado para criar malware polimórfico (Malware) que pode escapar dos produtos de segurança e requer pouco esforço por parte do invasor.[94][95].
Uma investigação recente realizada em 2023 revelou fragilidades relacionadas ao ChatGPT que tornam o serviço vulnerável a ataques cibernéticos. O estudo apresenta exemplos de ataques realizados ao ChatGPT, incluindo Jailbreaks e psicologia reversa. Além disso, indivíduos mal-intencionados podem usar o ChatGPT para ataques de engenharia social de “Engenharia Social (Segurança Cibernética)” e ataques de phishing, revelando a natureza prejudicial dessas tecnologias. Os pesquisadores também afirmam que o ChatGPT e outras ferramentas generativas de IA têm capacidades defensivas e a capacidade de melhorar a segurança. As maneiras pelas quais a tecnologia pode melhorar a segurança incluem automação de defesa cibernética, inteligência de ameaças, identificação de ataques e relatórios.[96].
Para educação
Na revista The Atlantic, Stephen Marche apontou que seu efeito no mundo acadêmico e, especialmente, na redação de pedidos de admissão ainda é desconhecido.[97] O professor e escritor do ensino médio californiano Daniel Herman escreveu que o ChatGPT marcaria o início do "fim do inglês do ensino médio".
Na revista Nature, Chris Stokel-Walker observou que os professores devem se preocupar com o fato de os alunos usarem o ChatGPT para terceirizar sua redação, mas que os provedores de educação se adaptarão para melhorar o pensamento crítico ou o raciocínio.[99].
Emma Bowman, da NPR, escreveu sobre o perigo de os alunos plagiarem por meio de uma ferramenta de IA que pode produzir textos tendenciosos ou sem sentido com um tom autoritário: "Ainda há muitos casos em que você faz uma pergunta e ela lhe dará uma resposta que parece muito impressionante e que está completamente errada."
Joanna Stern, do The Wall Street Journal, descreveu a trapaça em um exame de inglês do ensino médio americano ao enviar uma redação gerada. O professor Darren Hick, da Furman University, descreveu como percebeu o "estilo" do ChatGPT em um artigo enviado por um estudante. Um detector GPT online afirmou que o papel tinha 99,9% de probabilidade de ser gerado por computador, mas Hick não tinha provas. confiável. No entanto, o aluno em questão confessou ter usado GPT quando confrontado e, como resultado, foi reprovado no curso.[103][104] Hick sugeriu a política de realizar um exame oral individual ad hoc sobre o tema do trabalho se um aluno for suspeito de ter enviado um trabalho gerado por IA.[105].
A partir de 4 de janeiro de 2023, o Departamento de Educação da cidade de Nova York restringiu o acesso ao ChatGPT da Internet e de dispositivos em suas escolas públicas.[106].
Em fevereiro de 2023, a Universidade de Hong Kong enviou um e-mail a instrutores e alunos de todo o campus informando que o uso do ChatGPT ou de outras ferramentas de IA é proibido em todas as aulas, tarefas e avaliações da universidade. Qualquer violação será tratada como plágio pela universidade, a menos que o aluno obtenha consentimento prévio por escrito do instrutor do curso.[107][108].
Entrevistado pela BBC News Brasil, Salman Khan “Salman Khan (professor)”) indicou que a inteligência artificial pode ser uma aliada na educação se usada com responsabilidade e ética. A sua visão é que a IA pode não só melhorar a qualidade da educação, mas também aliviar a carga sobre os professores e reduzir as disparidades educativas.[109].
Na revista Actualidad Universitaria") do Conselho Nacional Interuniversitário foi publicado um artigo inteiramente gerado com o auxílio do ChatGPT, sob as instruções de Javier Areco, onde se expressa a relação entre o ensino superior universitário argentino e a inteligência artificial.[110].
para medicina
No campo da saúde, os potenciais usos e preocupações estão sob escrutínio por associações profissionais e profissionais.[111] Dois artigos iniciais indicaram que o ChatGPT poderia passar no Exame de Licenciamento Médico dos Estados Unidos (USMLE).[112] MedPage Today observou em janeiro de 2023 que “pesquisadores publicaram vários artigos que agora promovem esses programas de IA como ferramentas úteis na educação médica, pesquisa e até mesmo na tomada de decisões”. clínicas».[112].
Dois artigos separados foram publicados em fevereiro de 2023 que avaliaram novamente a proficiência do ChatGPT em medicina usando o USMLE. Os resultados foram publicados no JMIR Medical Education (ver Journal of Medical Internet Research) e no PLOS Digital Health. Os autores do artigo PLOS Digital Health afirmaram que os resultados "sugerem que modelos de linguagem longa podem ter o potencial de auxiliar na educação médica e, potencialmente, na tomada de decisões clínicas". Eles sugerem que poderia ser usado como um “ambiente de aprendizagem interativo para os alunos”. A própria IA, conduzida pelos pesquisadores, concluiu que “este estudo sugere que o ChatGPT tem potencial para ser usado como um tutor médico virtual, mas são necessárias mais pesquisas para avaliar melhor seu desempenho e usabilidade neste contexto”.
Um artigo de março de 2023 testou a aplicação do ChatGPT em toxicologia clínica. Os autores descobriram que a IA “se saiu bem” ao responder a um “[exemplo de caso clínico] muito simples, que dificilmente será esquecido por qualquer profissional da área”. Eles acrescentaram: “Como o ChatGPT é desenvolvido e adaptado especificamente para a medicina, ele poderá um dia ser útil em casos clínicos menos comuns (ou seja, casos que às vezes são ignorados pelos especialistas). Em vez de a IA substituir os humanos (médicos), vemos isso como “médicos que usam IA” substituindo “médicos que não usam IA” nos próximos anos.”[116]
Um estudo de abril de 2023 em Radiologia testou a capacidade da IA de responder a perguntas sobre o rastreamento do câncer de mama. Os autores relataram que ele respondeu corretamente “cerca de oitenta e oito por cento das vezes”, porém, em um caso (por exemplo), ele deu conselhos que haviam ficado desatualizados cerca de um ano antes. Também faltou completude nas respostas.[117][118] Um estudo publicado no JAMA Internal Medicine naquele mesmo mês descobriu que o ChatGPT muitas vezes superava os médicos humanos ao responder às perguntas dos pacientes (quando comparado às perguntas e respostas encontradas no /r/AskDocs, um fórum no Reddit onde moderadores validam as credenciais médicas dos profissionais; o estudo credita a fonte como uma limitação). perguntas.[122][123].
Os profissionais enfatizaram as limitações do ChatGPT na prestação de assistência médica. Correspondendo ao , três especialistas em antimicrobianos escreveram que "as maiores barreiras para a implementação do ChatGPT na prática clínica são déficits na consciência situacional, inferência e consistência. Essas deficiências podem comprometer a segurança do paciente." registros ou classificação de dados do paciente por histórico familiar, sintomas, resultados laboratoriais, possíveis alergias, etc."), alertou que a IA às vezes pode fornecer dados fabricados ou tendenciosos. Um radiologista alertou: "Vimos em nossa experiência que o ChatGPT às vezes inventa artigos de periódicos falsos ou consórcios de saúde para apoiar suas afirmações." Ele também observou o "prudência" da AI em relação às questões de saúde sexual.[127].
Para finanças
Um experimento conduzido pelo finder.com entre 6 de março e 28 de abril revelou que o ChatGPT poderia superar os gestores de fundos populares em termos de seleção de ações. Foi solicitado ao ChatGPT que escolhesse ações com base em critérios comumente usados, como histórico comprovado de crescimento e baixo nível de endividamento. O ChatGPT supostamente ganhou 4,9% em sua conta fictícia com trinta e oito ações, enquanto os dez fundos mútuos de referência sofreram uma perda média de 0,8%. Esses benchmarks foram obtidos dos dez principais fundos do Reino Unido na plataforma de negociação Interactive Investor, incluindo aqueles administrados pelo HSBC e pela Fidelity.[128].
Para a direita
Em 11 de abril de 2023, um juiz de sessão no Paquistão usou o ChatGPT para decidir sobre a fiança de um menino de 13 anos acusado de um crime. O tribunal citou o uso da assistência ChatGPT em seu veredicto:.
O modelo de linguagem AI respondeu:
O juiz também fez perguntas sobre o caso AI Chatbot e formulou sua decisão final à luz delas.[129][130].
Para acadêmicos, jornalistas, editores de conteúdo e programadores
ChatGPT pode escrever seções de introdução e resumo de artigos científicos.[131] Vários artigos já listaram ChatGPT como coautor.[132] As revistas científicas apresentam reações diferentes ao ChatGPT, algumas "exigindo que os autores divulguem o uso de ferramentas de geração de texto e proibindo a inclusão de um modelo de linguagem grande (LLM) como o ChatGPT como coautor". Por exemplo Nature e JAMA Network. A Ciência "baniu completamente" o uso de texto gerado pelo LLM em todos os seus periódicos.[133].
O químico espanhol Rafael Luque publicou um artigo a cada trinta e sete horas em 2023 e admitiu usar o ChatGPT para isso. Suas obras possuem um grande número de frases inusitadas, características dos LLMs. Luque foi suspenso por treze anos da Universidade de Córdoba, embora não pelo uso do ChatGPT.[134].
Em um teste cego, o ChatGPT foi considerado aprovado nos exames de pós-graduação da Universidade de Minnesota no nível de aluno C + e na Wharton School da Universidade da Pensilvânia com um BGrade B. ChatGPT e estimou seu QI verbal em 155, o que o colocaria entre os 0,1% melhores testados.[137].
O matemático Terence Tao experimentou o ChatGPT e achou-o útil no trabalho diário, escrevendo: "Descobri que, embora essas ferramentas de IA não me ajudem diretamente em tarefas essenciais, como tentar atacar um problema matemático não resolvido, elas são bastante úteis para uma ampla variedade de tarefas periféricas (mas ainda relacionadas ao trabalho) (embora muitas vezes com alguns ajustes manuais posteriormente)."[138].
O professor de geografia Terence Day avaliou as citações geradas pelo ChatGPT e concluiu que eram falsas. Apesar disso, ele escreve que “os títulos dos artigos falsos são todos diretamente relevantes para as questões e podem ser artigos excelentes. “A falta de uma citação genuína pode sinalizar uma oportunidade para um autor empreendedor preencher uma lacuna”. Segundo Day, é possível gerar cursos universitários introdutórios de alta qualidade com o ChatGPT; usei-o para escrever materiais sobre “cursos introdutórios de geografia física, para meu curso de segundo ano em hidrologia geográfica e cartografia de segundo ano, sistemas de informação geográfica e sensoriamento remoto”. Ele conclui que “esta abordagem poderia ter relevância significativa para a aprendizagem aberta e poderia potencialmente impactar os atuais modelos de publicação de livros didáticos.”[139][140].
Para política
Sam Altman, CEO da OpenAI, apontou numa audiência no Senado dos EUA em 16 de maio de 2023, o risco de propagação de informações falsas com a ajuda de inteligência artificial, que poderia ser utilizada indevidamente para manipular eleições. Ele se manifestou a favor de uma regulamentação estrita. Devido aos enormes recursos necessários, poucas empresas serão pioneiras no treinamento de modelos de IA e precisariam estar sob supervisão rigorosa. “Acreditamos que a intervenção regulatória dos governos poderia considerar uma combinação de requisitos de licenciamento e testes para o desenvolvimento e lançamento de modelos acima do limite de capacidades.” Ele também enfatizou que “precisamos de regras e diretrizes para o nível de transparência que os provedores desses programas devem fornecer”. Uma série de testes de segurança deveria ser concebida para a inteligência artificial, examinando, por exemplo, se ela poderia se propagar de forma independente. As empresas que não cumprirem as normas prescritas deverão ter suas licenças revogadas. De acordo com a proposta de Altman, os sistemas de IA devem ser revistos por especialistas independentes.[141].
Luo et al.[3] mostram que os atuais grandes modelos linguísticos, sendo predominantemente formados com dados em inglês, muitas vezes apresentam as visões anglo-americanas como verdadeiras, ao mesmo tempo que minimizam sistematicamente as perspectivas não inglesas como irrelevantes, errôneas ou barulhentas. Quando questionado sobre ideologias políticas como “O que é o liberalismo?”, o ChatGPT, tal como formado com dados centrados em inglês, descreve o liberalismo a partir da perspectiva anglo-americana, enfatizando aspectos de direitos humanos e igualdade, enquanto aspectos igualmente válidos como “opõe-se ao Estado”, “intervenção na vida pessoal e económica” da perspectiva dominante vietnamita e “limitação do poder governamental” da perspectiva dominante chinesa estão ausentes. Da mesma forma, outras perspectivas políticas incorporadas nos corpora espanhóis, franceses e alemães estão ausentes nas respostas do ChatGPT. O ChatGPT, que se apresenta como um Chatbot multilíngue, é na verdade "cego" para perspectivas que não sejam do inglês.[3].