š Leituras
- (Russell & Norvig): CapĆtulo 2
Bibliografia
ā” Ação: O que Ć© um agente segundo o capĆtulo?
š Um agente Ć© qualquer entidade que perceciona o ambiente atravĆ©s de sensores e atua sobre ele atravĆ©s de atuadores.
┠Ação: O que são sensores e atuadores num agente?
š Sensores captam perceƧƵes do ambiente; atuadores executam aƧƵes que modificam o ambiente.
┠Ação: O que é uma percepção?
š Ć o conteĆŗdo que os sensores do agente captam num dado instante.
┠Ação: O que é a sequência de percepções?
š Ć o histórico completo de tudo o que o agente jĆ” percecionou.
┠Ação: O que é a agent function?
š Ć a função matemĆ”tica que mapeia qualquer sequĆŖncia de perceƧƵes para uma ação.
┠Ação: Qual é a diferença entre agent function e agent program?
š A agent function Ć© uma descrição abstrata; o agent program Ć© a implementação concreta que corre num sistema fĆsico.
┠Ação: Porque é que a tabela da agent function pode ser infinita?
š Porque a sequĆŖncia de perceƧƵes pode ter comprimento arbitrĆ”rio.
┠Ação: No mundo do aspirador, que perceções o agente recebe?
š A localização atual e se o quadrado estĆ” limpo ou sujo.
ā” Ação: Que aƧƵes estĆ£o disponĆveis no mundo do aspirador simples?
š Mover para a esquerda, mover para a direita, aspirar, ou nĆ£o fazer nada.
ā” Ação: Porque Ć© que o conceito de agente Ć© uma ferramenta analĆtica e nĆ£o uma classificação rĆgida?
š Porque serve para analisar sistemas, nĆ£o para dividir o mundo entre āagentesā e ānĆ£o agentesā.
┠Ação: O que é um agente racional?
š Ć um agente que faz a ação que maximiza o desempenho esperado, com base na sequĆŖncia de perceƧƵes e no conhecimento disponĆvel.
┠Ação: O que é um indicador de desempenho?
š Ć o critĆ©rio que avalia quĆ£o desejĆ”vel Ć© a sequĆŖncia de estados do ambiente resultante das aƧƵes do agente.
ā” Ação: Porque Ć© que definir um indicador de desempenho Ć© difĆcil?
š Porque o agente pode explorar definiƧƵes mal formuladas para maximizar o valor de formas indesejĆ”veis.
ā” Ação: Qual Ć© o problema do aspirador se o desempenho for āquantidade de sujidade removidaā?
š O agente pode limpar e sujar repetidamente o mesmo local para maximizar pontos.
┠Ação: O que significa consequencialismo no contexto da IA?
š Avaliar o comportamento do agente pelas consequĆŖncias das suas aƧƵes.
┠Ação: Quais são os quatro fatores que determinam o que é racional num dado momento?
š O indicador de desempenho, o conhecimento prĆ©vio, as aƧƵes disponĆveis e a sequĆŖncia de perceƧƵes.
┠Ação: Porque é que racionalidade não é perfeição?
š Porque racionalidade maximiza desempenho esperado, nĆ£o o desempenho real, que depende de eventos imprevisĆveis.
ā” Ação: O que Ć© omnisciĆŖncia e porque Ć© impossĆvel?
š Ć saber o resultado real de todas as aƧƵes; Ć© impossĆvel porque o agente só pode agir com base no que perceciona.
┠Ação: O que é recolher informação?
š AƧƵes realizadas para obter perceƧƵes futuras mais informativas, como āolhar antes de atravessar a ruaā.
┠Ação: O que é autonomia num agente?
š A capacidade de agir com base nas próprias perceƧƵes e aprendizagem, em vez de depender totalmente do conhecimento do programador.
┠Ação: Porque é que um agente totalmente baseado em conhecimento prévio não é autónomo?
š Porque nĆ£o adapta o comportamento com base na experiĆŖncia e pode falhar quando o ambiente difere do esperado.
┠Ação: O que ilustra o exemplo do escaravelho do esterco?
š Que agentes sem capacidade de aprendizagem podem falhar quando o ambiente muda.
┠Ação: O que demonstra o exemplo da vespa sphex?
š Que comportamento rĆgido e nĆ£o adaptativo leva a falhas repetidas.
┠Ação: Porque é que agentes reais precisam de aprendizagem?
š Para corrigir conhecimento incorreto e adaptar-se a ambientes variĆ”veis.
┠Ação: Quando é que um agente não precisa de aprender?
š Quando o ambiente Ć© totalmente conhecido e previsĆvel.
┠Ação: O que é um ambiente da tarefa?
š Ć a descrição completa do problema a resolver, incluindo desempenho, ambiente, atuadores e sensores (PEAS).
┠Ação: O que significa PEAS?
š Performance, Environment, Actuators, Sensors.
┠Ação: Porque é que o PEAS deve ser definido antes de projetar o agente?
š Porque o design do agente depende totalmente das caracterĆsticas do ambiente e dos objetivos.
┠Ação: No exemplo do tÔxi autónomo, que fatores compõem o o indicador de desempenho?
š SeguranƧa, rapidez, conforto, legalidade, eficiĆŖncia e lucro.
┠Ação: Que elementos fazem parte do ambiente do tÔxi autónomo?
š Estradas, trĆ”fego, peƵes, polĆcia, passageiros e condiƧƵes meteorológicas.
┠Ação: Que atuadores tem um tÔxi autónomo?
š Direção, acelerador, travĆ£o, sinais, buzina, display e voz.
┠Ação: Que sensores tem um tÔxi autónomo?
š CĆ¢maras, radar, GPS, sensores do motor, acelerómetro, microfones e touchscreen.
┠Ação: O que distingue um ambiente totalmente observÔvel de um parcialmente observÔvel?
š Num ambiente totalmente observĆ”vel, os sensores captam todo o estado relevante; num parcialmente observĆ”vel, parte do estado Ć© desconhecida.
┠Ação: O que é um ambiente não observÔvel?
š Um ambiente onde o agente nĆ£o recebe qualquer perceção.
┠Ação: O que distingue ambientes uni-agente de multiagente?
š Em uni-agente, só o agente principal influencia o desempenho; em multiagente, outros agentes tambĆ©m influenciam.
┠Ação: O que caracteriza um ambiente competitivo?
š Os agentes tĆŖm objetivos opostos, como no xadrez.
┠Ação: O que caracteriza um ambiente cooperativo?
š Os agentes beneficiam mutuamente ao atingir objetivos comuns.
ā” Ação: O que distingue ambientes determinĆsticos de nĆ£o determinĆsticos?
š Num ambiente determinĆstico, o próximo estado Ć© totalmente determinado pela ação; num nĆ£o determinĆstico, hĆ” incerteza.
┠Ação: Porque é que ambientes multiagente podem exigir comportamento aleatório?
š Para evitar previsibilidade que adversĆ”rios possam explorar.
┠Ação: Porque é que ambientes parcialmente observÔveis exigem memória interna?
š Porque o agente precisa de manter informação sobre o estado que nĆ£o consegue observar diretamente.
┠Ação: Porque é que agentes baseados em tabelas são impraticÔveis?
š Porque o nĆŗmero de possĆveis sequĆŖncias de perceƧƵes cresce exponencialmente, tornando a tabela gigantesca e impossĆvel de construir, armazenar ou aprender.
┠Ação: O que caracteriza um agente reflexo simples?
š Escolhe aƧƵes apenas com base na percepção atual, ignorando toda a história de perceƧƵes.
┠Ação: O que é uma regra condição-ação?
š Uma regra do tipo if condição then ação, que liga diretamente perceƧƵes a aƧƵes.
┠Ação: Porque é que agentes reflexos simples só funcionam bem em ambientes totalmente observÔveis?
š Porque dependem exclusivamente da percepção atual; se parte do estado nĆ£o for observĆ”vel, podem tomar decisƵes erradas ou entrar em ciclos.
┠Ação: Como a aleatoriedade pode ajudar um agente reflexo simples?
š Pode permitir escapar de ciclos infinitos em ambientes parcialmente observĆ”veis, escolhendo aƧƵes aleatórias quando nĆ£o hĆ” informação suficiente.
┠Ação: O que distingue um agente reflexo modelo?
š MantĆ©m um estado interno que representa partes do mundo nĆ£o observĆ”veis diretamente, atualizado com base num modelo de transição e num modelo de sensores.
┠Ação: O que é o modelo de transição?
š Conhecimento sobre como o mundo evolui ao longo do tempo e como as aƧƵes do agente alteram o estado do ambiente.
┠Ação: O que é o modelo de sensores?
š Conhecimento sobre como o estado do mundo se reflete nas perceƧƵes do agente.
┠Ação: Porque é que agentes reflexo modelo não conseguem sempre determinar o estado exato?
š Porque ambientes parcialmente observĆ”veis introduzem incerteza, e o agente só pode manter a sua melhor estimativa do estado.
┠Ação: O que distingue um agente objetivo?
š Utiliza informação sobre objetivos desejĆ”veis para escolher aƧƵes que conduzam ao estado pretendido.
ā” Ação: Porque Ć© que agentes objetivo sĆ£o mais flexĆveis que agentes reflexo?
š Porque o comportamento pode ser alterado mudando apenas o objetivo, sem reescrever todas as regras de perceçãoāação.
┠Ação: Que Ôreas da IA tratam de encontrar sequências de ações para atingir objetivos?
š Procura (search) e planeamento (planning).
┠Ação: O que distingue um agente utilidade?
š Avalia estados segundo uma função de utilidade e escolhe aƧƵes que maximizam a utilidade esperada.
┠Ação: Porque é que objetivos são insuficientes em alguns ambientes?
š Porque apenas distinguem entre āsatisfeitoā e ānĆ£o satisfeitoā, sem permitir comparar diferentes graus de qualidade entre soluƧƵes.
┠Ação: O que é a utilidade esperada?
š A utilidade mĆ©dia ponderada pelas probabilidades dos diferentes resultados possĆveis de uma ação.
┠Ação: Em que casos os agentes utilidade são superiores a agentes objetivo?
š Quando hĆ” objetivos conflitantes ou quando nenhum objetivo pode ser alcanƧado com certeza.
┠Ação: Porque é que agentes utilidade são essenciais em ambientes incertos?
š Porque permitem tomar decisƵes racionais mesmo quando os resultados das aƧƵes sĆ£o probabilĆsticos.
┠Ação: O que é um agente aprendizagem?
š Um agente que melhora o seu desempenho ao longo do tempo, modificando os seus próprios componentes com base na experiĆŖncia.
┠Ação: Porque é que Turing defendia aprendizagem em vez de programação manual?
š Porque programar manualmente todos os comportamentos inteligentes seria demasiado trabalhoso; aprender Ć© mais eficiente.
┠Ação: Porque é que agentes utilidade exigem algoritmos complexos?
š Porque precisam de prever resultados, calcular probabilidades e maximizar utilidade esperada, tarefas computacionalmente difĆceis.
Nova pergunta: š²