
QUIZ
Quiz Avanzato sull’Intelligenza Artificiale
Domanda 1 di 15
Quale fu l'impatto principale delle critiche di Minsky e Papert al Perceptron nel 1969?
Le critiche di Minsky e Papert, dimostrando l'incapacità del Perceptron di risolvere problemi non linearmente separabili come lo XOR, causarono il primo inverno dell'AI.
RIPASSO
🤖 Storia dell’AI – Livello Avanzato
Dimostrarono che il Perceptron non poteva risolvere problemi non linearmente separabili, come lo XOR, causando il primo inverno dell'AI.
ALVINN usava una rete neurale con 30x32 input, 4 hidden layers e 30 output. Fu pionieristica nell'uso del deep learning per la guida autonoma in tempo reale.
Combinazione di reti neurali profonde con Monte Carlo Tree Search, apprendimento supervisionato da partite umane e reinforcement learning attraverso self-play.
Usava regole euristiche per analizzare spettri di massa. La sua architettura separava conoscenza del dominio dal motore inferenziale, creando il paradigma dei sistemi esperti.
Sviluppò l'algoritmo di propagazione delle credenze e formalizzò la causalità in AI attraverso il calcolo do-calculus nel 1988.
Utilizzava pattern matching e sostituzione di parole chiave con script predefiniti, introducendo il concetto di elaborazione del linguaggio naturale basata su regole.
Utilizzava 480 processori VLSI custom, valutava 200 milioni di posizioni al secondo e combinava ricerca in profondità con database di aperture e finali.
Introduce il meccanismo di self-attention, eliminando la ricorrenza e permettendo il parallelismo. Rivoluzionaria per la sua capacità di gestire dipendenze a lungo termine.
Sviluppato da Watkins nel 1989, usa l'equazione di Bellman per aggiornare i valori Q attraverso l'apprendimento temporale delle differenze senza un modello dell'ambiente.
Primo sistema esperto commerciale di successo (DEC, 1980), usava 2500 regole per configurare computer VAX, risparmiando 40M$/anno.
Introdusse il pre-training non supervisionato con RBM (2006), dropout (2012) e ReLU, rendendo possibile l'addestramento efficace di reti profonde.
Rumelhart, Hinton e Williams (1986) lo ottimizzarono usando la regola della catena per calcolare gradienti e aggiornare i pesi layer per layer.
Evolve programmi rappresentati come alberi sintattici usando crossover, mutazione e selezione basata su fitness, introdotto nel 1992.
Combinava parsing sintattico, rappresentazione semantica e ragionamento procedurale per comprendere e manipolare un mondo di blocchi in linguaggio naturale (1971).
Introduce gradi di verità continui tra 0 e 1, operatori fuzzy e regole if-then fuzzy per gestire l'incertezza (1965).
Sviluppato da Hart, Nilsson e Raphael nel 1968, combina costo del percorso (g) con euristica ammissibile (h) per trovare il percorso ottimale.
Introdusse l'apprendimento per rinforzo temporale e l'auto-play nelle dame (1959), precorrendo concetti moderni di RL e self-play.
Usa decoder-only transformer, pre-training su testo non etichettato, attention bidirectionale e fine-tuning su task specifici. Scalabilità e few-shot learning sono le chiavi del successo.
Combina Q-learning con CNN, replay buffer ed experience replay per stabilizzare l'apprendimento. Prima rete a raggiungere prestazioni umane su Atari (2015).
Usa encoder transformer bidirezionale, masked language modeling e next sentence prediction. Innovativa per la rappresentazione contestuale delle parole (2018).