Conteúdo do curso
Introdução à IA generativa
Acreditamos que Generative AI e Large Language Models (LLMs) têm o potencial de transformar a educação. Ao nos envolvermos com essas ferramentas, podemos aprender como criar experiências alegres, personalizadas, interativas e envolventes que impulsionam o aprendizado profundo.
0/3
Série de vídeos: O que é IA? | Code.org
A série "Como a IA funciona" do Code.org é uma introdução fantástica aos fundamentos da inteligência artificial. Comece sua aventura de aprendizado de IA aqui!
0/7
Série de vídeos: Ética e IA | Code.org
Aprenda sobre algumas das questões éticas espinhosas que envolvem o uso da inteligência artificial.
0/4
Preparando-se para ensinar com IA
Acreditamos que Generative AI e Large Language Models (LLMs) têm o potencial de transformar a educação. Ao nos envolvermos com essas ferramentas, podemos aprender como criar experiências alegres, personalizadas, interativas e envolventes que impulsionam o aprendizado profundo.
0/5
Série de vídeos: IA prática para educação
Esta série de vídeos em 5 partes, com os professores Ethan Mollick e Lilach Mollick da Wharton School da Universidade da Pensilvânia, fornece uma visão geral esclarecedora da IA ​​generativa e das melhores práticas emergentes para seu uso no ensino superior. <p><a href="https://interactive.wharton.upenn.edu/teaching-with-ai/">Saiba mais sobre o ensino com IA na Wharton Interactive</a></p>
0/5
Planos de aula: Alfabetização em IA | Educação de senso comum
Aumente sua confiança conforme você aprende sobre estratégias, técnicas e melhores práticas emergentes na sala de aula. Considere ideias de planejamento de aulas e comece a aproveitar a inteligência artificial generativa para potencializar os resultados dos seus alunos!
0/2
Como a IA é treinada?
Não há IA sem treinamento. Esta lição foi criada pela Common Sense Education.
0/1
Compreendendo o preconceito da IA
As inteligências artificiais são treinadas em dados humanos e, portanto, podem compartilhar nossos preconceitos humanos também. Esta lição foi criada pela Common Sense Education.
0/1
Como o preconceito da IA ​​afeta nossas vidas
As consequências do viés da IA ​​são muito, muito reais. Esta lição foi criada pela Common Sense Education.
0/1
Chatbots de IA: quem está por trás da tela?
Quer saber por que os chatbots de IA parecem tão realistas? Continue lendo (e assistindo)! Esta lição foi criada pela Common Sense Education.
0/2
Enfrentando o reconhecimento facial
Vamos explorar os benefícios e riscos da tecnologia de reconhecimento facial. Esta lição foi criada pela Common Sense Education.
0/1
Algoritmos de IA: o quanto eles conhecem você?
Aprenda sobre como algoritmos de IA influenciam o que você vê e vivencia online. Esta lição foi criada pela Common Sense Education.
0/2
Chatbots de IA e amizade
Como os chatbots de IA podem moldar nosso conceito de amizade? Esta lição foi criada pela Common Sense Education.
0/1
Introdução à IA Generativa na Educação
Sobre a Aula

Visão geral rápida das coisas que grandes modelos de linguagem fazem bem e das coisas que eles não fazem tão bem — ainda.

O que devo esperar?

Grandes modelos de linguagem como o ChatGPT da OpenAI são programas de computador que foram treinados em enormes conjuntos de dados para extrair significado do texto e produzir linguagem. Esses modelos podem fazer algumas coisas muito bem, mas também têm algumas limitações!
Você provavelmente não tentaria usar uma chave de fenda para martelar um prego, certo? Quando usamos ferramentas de chatbot baseadas em LLM para tarefas para as quais foram projetadas, obtemos resultados muito melhores!

O que os LLMs fazem bem?

Bom: Processador de linguagem

Grandes modelos de linguagem são ótimos para extrair significado da linguagem. Eles não “entendem” texto no sentido humano, mas podem ingeri-lo e dar sentido a ele, mesmo que esteja escrito de uma forma que não seja perfeitamente clara. Eles foram treinados com tantos dados que aprenderam a reconhecer padrões e, a partir desses padrões, o significado das palavras no contexto.
Simplificar e resumir textos longos e complexos é um dos superpoderes da IA. Ela é boa para extrair conclusões importantes, mas é sempre uma boa ideia verificar duas vezes se ela deixou passar pontos críticos!

Bom: Gerador de texto

Grandes modelos de linguagem também são bons em gerar texto. Eles podem pegar um prompt e escrever um parágrafo ou até mesmo um artigo inteiro que parece ter sido escrito por um humano — um humano com habilidades gramaticais realmente boas!

Bom: Parceiro de brainstorming

Os professores já estão usando LLMs para ajudá-los a ter ideias para suas salas de aula! Dado um pedido claro e alguns exemplos, os LLMs podem gerar múltiplas variações de ideias, como possíveis atividades de classe, declarações de tese interessantes ou rascunhos de perguntas de quiz.

Em que os LLMs não são tão bons?

Não tão bom: Eles inventam coisas!

Embora grandes modelos de linguagem possam processar bem a linguagem em tópicos comuns, às vezes eles dão informações erradas, o que muitas vezes parece que eles estão inventando coisas. Pessoas no negócio de IA e LLM chamam isso de “alucinações”. Isso pode acontecer por uma série de razões:
  • Dados de treinamento defeituosos: Os enormes conjuntos de dados nos quais os LLMs são treinados podem conter milhões de palavras e geralmente vêm de uma variedade de fontes, incluindo artigos, livros, a Internet e até mesmo postagens em mídias sociais. Se os dados de treinamento contiverem imprecisões, o modelo herdará esses erros. Se os dados de treinamento forem confusos ou inconsistentes, a IA pode inferir padrões que não existem de fato ou interpretar mal as informações.
  • Dados de treinamento antigos: Pode levar muito tempo para reunir dados nos quais treinar um modelo, e leva tempo para realmente fazer o treinamento. LLMs não podem ser simplesmente “atualizados” com “o que quer que seja novo na internet”. Então, o modelo não saberá nada sobre coisas que ocorreram no passado recente — às vezes até dois anos atrás. Quando os dados de treinamento de um LLM não fornecem uma base para uma resposta baseada em fatos, o LLM terá alucinações. Alguns mecanismos de busca estão trabalhando nisso conectando modelos à internet, mas você não deve presumir que todo modelo com o qual você interage tem essa capacidade.

Não sou tão bom em matemática!

Grandes modelos de linguagem não fazem cálculos por si só. Quando LLMs são solicitados a gerar matemática, eles a geram da mesma forma que geram texto: probabilisticamente. Por causa disso, eles podem às vezes cometer erros ao trabalhar com aritmética simples ou conceitos matemáticos mais avançados.
Erros também podem acontecer quando o modelo é solicitado a gerar texto que inclui números ou cálculos. Se os dados de treinamento contiverem cálculos incorretos, o modelo pode replicar esses erros. Por exemplo, o modelo pode dizer que.

Não tão bom: sites falsos e outras “alucinações”

Conforme mencionado acima, se um LLM não tiver os dados necessários para gerar uma resposta correta, ele pode inventar uma convincente — essas “alucinações” podem acontecer com frequência:
  • Sites falsos: pode levar você a um URL, mas a página da web não existe de fato.
  • Sites errados: pode fornecer um link para um site completamente alheio ao tópico.
  • Citações falsas: podem fornecer como fonte uma obra que nunca existiu, ou alegar que dois autores reais que nunca colaboraram são coautores de um estudo, ou inventar nomes falsos para autores, ou títulos falsos para artigos, estudos de pesquisa ou livros!

Não tão bom: Não tem um entendimento profundo de conceitos especializados

Embora grandes modelos de linguagem possam processar bem a linguagem em tópicos comuns, eles nem sempre são tão eficazes ao discutir os detalhes de conceitos altamente especializados. Por exemplo, eles podem ter dificuldade para identificar e explicar com precisão as nuances de um procedimento médico complexo. Quando pressionados, eles começarão a inventar coisas (veja abaixo).

Não tão bom: Não tem seu contexto

Isso pode parecer óbvio, mas os modelos não têm todas as informações sobre você e seu ambiente. Se você é um aluno ou professor em uma escola, o modelo não sabe sobre a sequência de aulas desta semana, quem está tendo um dia ruim ou que você nunca entendeu realmente aquela ideia em ciências. Então, ele pode sugerir ideias ou gerar uma escrita que não faça sentido para você ou sua classe.

Resumo: Não confie! Verifique!

LLMs são ferramentas de produtividade especializadas: aprenda a usá-las para ajudar você a ser mais produtivo. Não peça respostas para coisas que eles não podem saber, ou eles vão inventar coisas. Colabore com eles, mas não dependa deles para criar.
Estar prevenido vale por dois: a única maneira de se proteger contra as alucinações de um LLM é criar o hábito de verificar os fatos de tudo o que ele lhe diz.
Conclusão: No geral, modelos de linguagem grandes são bons em entender a linguagem, gerar texto e responder perguntas. No entanto, eles têm dificuldade em entender conceitos e raciocínios complexos. Eles também não têm “julgamento”.
À medida que esses modelos continuam a se desenvolver, eles podem melhorar nessas áreas!