Vai al contenuto


Quiz Avanzato IA

Quiz Avanzato sull’Intelligenza Artificiale

Domanda 1 di 15
Quale fu l'impatto principale delle critiche di Minsky e Papert al Perceptron nel 1969?
Le critiche di Minsky e Papert, dimostrando l'incapacità del Perceptron di risolvere problemi non linearmente separabili come lo XOR, causarono il primo inverno dell'AI.
Storia dell’AI Avanzato – Flash Cards

🤖 Storia dell’AI – Livello Avanzato

🧮
Quali furono le principali critiche di Minsky e Papert al Perceptron nel loro libro del 1969?
Dimostrarono che il Perceptron non poteva risolvere problemi non linearmente separabili, come lo XOR, causando il primo inverno dell'AI.
🚗
Come funzionava l'architettura di ALVINN e perché fu rivoluzionaria?
ALVINN usava una rete neurale con 30x32 input, 4 hidden layers e 30 output. Fu pionieristica nell'uso del deep learning per la guida autonoma in tempo reale.
🎮
Quali innovazioni tecniche resero possibile la vittoria di AlphaGo su Lee Sedol?
Combinazione di reti neurali profonde con Monte Carlo Tree Search, apprendimento supervisionato da partite umane e reinforcement learning attraverso self-play.
🧪
Come funzionava il sistema DENDRAL e qual era la sua architettura?
Usava regole euristiche per analizzare spettri di massa. La sua architettura separava conoscenza del dominio dal motore inferenziale, creando il paradigma dei sistemi esperti.
📊
Quali furono i contributi fondamentali di Judea Pearl alla teoria delle reti bayesiane?
Sviluppò l'algoritmo di propagazione delle credenze e formalizzò la causalità in AI attraverso il calcolo do-calculus nel 1988.
💭
Come funzionava l'architettura originale del sistema ELIZA?
Utilizzava pattern matching e sostituzione di parole chiave con script predefiniti, introducendo il concetto di elaborazione del linguaggio naturale basata su regole.
♟️
Quali furono le innovazioni chiave nell'architettura di Deep Blue?
Utilizzava 480 processori VLSI custom, valutava 200 milioni di posizioni al secondo e combinava ricerca in profondità con database di aperture e finali.
🔄
Come funziona l'architettura Transformer e perché è rivoluzionaria?
Introduce il meccanismo di self-attention, eliminando la ricorrenza e permettendo il parallelismo. Rivoluzionaria per la sua capacità di gestire dipendenze a lungo termine.
📐
Quali sono i principi matematici del Q-learning e chi lo sviluppò?
Sviluppato da Watkins nel 1989, usa l'equazione di Bellman per aggiornare i valori Q attraverso l'apprendimento temporale delle differenze senza un modello dell'ambiente.
💻
Come funzionava il sistema esperto XCON e quale fu il suo impatto?
Primo sistema esperto commerciale di successo (DEC, 1980), usava 2500 regole per configurare computer VAX, risparmiando 40M$/anno.
🧠
Quali furono le innovazioni di Hinton nel training delle reti neurali profonde?
Introdusse il pre-training non supervisionato con RBM (2006), dropout (2012) e ReLU, rendendo possibile l'addestramento efficace di reti profonde.
📉
Come funziona l'algoritmo di backpropagation e chi lo ottimizzò?
Rumelhart, Hinton e Williams (1986) lo ottimizzarono usando la regola della catena per calcolare gradienti e aggiornare i pesi layer per layer.
🧬
Quali sono i principi del Genetic Programming di Koza?
Evolve programmi rappresentati come alberi sintattici usando crossover, mutazione e selezione basata su fitness, introdotto nel 1992.
🏗️
Come funzionava l'architettura di SHRDLU di Winograd?
Combinava parsing sintattico, rappresentazione semantica e ragionamento procedurale per comprendere e manipolare un mondo di blocchi in linguaggio naturale (1971).
⚖️
Quali sono i principi della Logica Fuzzy di Zadeh?
Introduce gradi di verità continui tra 0 e 1, operatori fuzzy e regole if-then fuzzy per gestire l'incertezza (1965).
🎯
Come funziona l'algoritmo A* e chi lo sviluppò?
Sviluppato da Hart, Nilsson e Raphael nel 1968, combina costo del percorso (g) con euristica ammissibile (h) per trovare il percorso ottimale.
🎲
Quali furono le innovazioni di Samuel nel Machine Learning?
Introdusse l'apprendimento per rinforzo temporale e l'auto-play nelle dame (1959), precorrendo concetti moderni di RL e self-play.
🤖
Come funziona l'architettura GPT e quali sono le sue innovazioni chiave?
Usa decoder-only transformer, pre-training su testo non etichettato, attention bidirectionale e fine-tuning su task specifici. Scalabilità e few-shot learning sono le chiavi del successo.
🎮
Quali sono i principi del Deep Q-Network di DeepMind?
Combina Q-learning con CNN, replay buffer ed experience replay per stabilizzare l'apprendimento. Prima rete a raggiungere prestazioni umane su Atari (2015).
📚
Come funziona l'architettura BERT e perché è innovativa?
Usa encoder transformer bidirezionale, masked language modeling e next sentence prediction. Innovativa per la rappresentazione contestuale delle parole (2018).