.
Η ιστορία της τεχνητής νοημοσύνης (AI) ξεκίνησε στην αρχαιότητα, με μύθους, ιστορίες και φήμες για τεχνητά όντα προικισμένα με νοημοσύνη ή συνείδηση φτιαγμένα από τεχνίτες. Οι σπόροι της σύγχρονης τεχνητής νοημοσύνης φυτεύτηκαν από φιλοσόφους που προσπάθησαν να περιγράψουν τη διαδικασία της ανθρώπινης σκέψης ως μηχανικό χειρισμό συμβόλων.Αυτό το έργο κορυφώθηκε με την εφεύρεση του προγραμματιζόμενου ψηφιακού υπολογιστή τη δεκαετία του 1940, μιας μηχανής βασισμένης στην αφηρημένη έννοια του μαθηματικού συλλογισμού. Αυτή η συσκευή και οι ιδέες πίσω από αυτήν ενέπνευσαν μια χούφτα επιστημόνων να αρχίσουν να συζητούν σοβαρά τη δυνατότητα κατασκευής ενός ηλεκτρονικού εγκεφάλου.
Το πεδίο της έρευνας της τεχνητής νοημοσύνης ιδρύθηκε σε ένα εργαστήριο που πραγματοποιήθηκε στην πανεπιστημιούπολη του Κολλεγίου Dartmouth, ΗΠΑ το καλοκαίρι του 1956.[1] Όσοι παρευρέθηκαν θα γίνουν οι ηγέτες της έρευνας AI για δεκαετίες. Πολλοί από αυτούς προέβλεψαν ότι μια μηχανή τόσο έξυπνη όσο ένας άνθρωπος θα υπήρχε σε όχι περισσότερο από μια γενιά, και τους δόθηκαν εκατομμύρια δολάρια για να πραγματοποιήσουν αυτό το όραμα.[2]
Τελικά, έγινε φανερό ότι οι εμπορικοί προγραμματιστές και οι ερευνητές είχαν υποτιμήσει κατάφωρα τη δυσκολία του έργου.[3] Το 1974, ως απάντηση στην κριτική του James Lighthill και στη συνεχιζόμενη πίεση από το Κογκρέσο, οι Η.Π.Α. και οι βρετανικές κυβερνήσεις σταμάτησαν να χρηματοδοτούν μη κατευθυνόμενη έρευνα για την τεχνητή νοημοσύνη και τα δύσκολα χρόνια που ακολούθησαν θα ονομάζονταν αργότερα «χειμώνας της τεχνητής νοημοσύνης». Επτά χρόνια αργότερα, μια οραματική πρωτοβουλία της ιαπωνικής κυβέρνησης ενέπνευσε τις κυβερνήσεις και τη βιομηχανία να παράσχουν στην τεχνητή νοημοσύνη δισεκατομμύρια δολάρια, αλλά στα τέλη της δεκαετίας του '80 οι επενδυτές απογοητεύτηκαν και απέσυραν ξανά τη χρηματοδότηση.
Οι επενδύσεις και το ενδιαφέρον για την τεχνητή νοημοσύνη αυξήθηκαν τις πρώτες δεκαετίες του 21ου αιώνα, όταν η μηχανική μάθηση εφαρμόστηκε με επιτυχία σε πολλά προβλήματα στον ακαδημαϊκό χώρο και τη βιομηχανία λόγω νέων μεθόδων, της εφαρμογής ισχυρού υλικού υπολογιστών και της συλλογής τεράστιων συνόλων δεδομένων.
Η γέννηση της τεχνητής νοημοσύνης 1952-1956
Το IBM 702: ένας υπολογιστής που χρησιμοποιήθηκε από την πρώτη γενιά ερευνητών τεχνητής νοημοσύνης.
Στις δεκαετίες του 1940 και του 1950, μια χούφτα επιστημόνων από διάφορους τομείς (μαθηματικά, ψυχολογία, μηχανική, οικονομία και πολιτικές επιστήμες) άρχισαν να συζητούν τη δυνατότητα δημιουργίας ενός τεχνητού εγκεφάλου. Το πεδίο της έρευνας της τεχνητής νοημοσύνης ιδρύθηκε ως ακαδημαϊκό επιστημονικό κλάδο το 1956.[49]
Κυβερνητική και πρώιμα νευρωνικά δίκτυα
Η παλαιότερη έρευνα στις μηχανές σκέψης εμπνεύστηκε από μια συρροή ιδεών που επικράτησε στα τέλη της δεκαετίας του 1930, της δεκαετίας του 1940 και στις αρχές της δεκαετίας του 1950. Πρόσφατη έρευνα στη νευρολογία είχε δείξει ότι ο εγκέφαλος ήταν ένα ηλεκτρικό δίκτυο νευρώνων που παράγουν παλμούς όλα ή τίποτα. Η κυβερνητική του Norbert Wiener περιέγραψε τον έλεγχο και τη σταθερότητα στα ηλεκτρικά δίκτυα. Η θεωρία πληροφοριών του Claude Shannon περιέγραψε ψηφιακά σήματα (δηλαδή σήματα όλα ή τίποτα). Η θεωρία υπολογισμού του Alan Turing έδειξε ότι οποιαδήποτε μορφή υπολογισμού θα μπορούσε να περιγραφεί ψηφιακά. Η στενή σχέση μεταξύ αυτών των ιδεών υποδηλώνει ότι μπορεί να είναι δυνατή η κατασκευή ενός ηλεκτρονικού εγκεφάλου.[50]
Παραδείγματα εργασίας σε αυτό το πνεύμα περιλαμβάνουν ρομπότ όπως οι χελώνες του W. Gray Walter και το τέρας Johns Hopkins. Αυτά τα μηχανήματα δεν χρησιμοποιούσαν υπολογιστές, ψηφιακά ηλεκτρονικά ή συμβολική λογική. ελέγχονταν εξ ολοκλήρου από αναλογικά κυκλώματα.[51]
Ο Walter Pitts και ο Warren McCulloch ανέλυσαν δίκτυα εξιδανικευμένων τεχνητών νευρώνων και έδειξαν πώς θα μπορούσαν να εκτελούν απλές λογικές λειτουργίες το 1943.[52][53] Ήταν οι πρώτοι που περιέγραψαν αυτό που οι μεταγενέστεροι ερευνητές θα αποκαλούσαν νευρωνικό δίκτυο.[54] Ένας από τους μαθητές που εμπνεύστηκαν από τον Πιτς και τον ΜακΚάλοχ ήταν ένας νεαρός Μάρβιν Μίνσκι, τότε 24χρονος μεταπτυχιακός φοιτητής. Το 1951 (με τον Dean Edmonds) κατασκεύασε την πρώτη μηχανή νευρωνικού δικτύου, το SNARC.[55] Ο Minsky επρόκειτο να γίνει ένας από τους σημαντικότερους ηγέτες και καινοτόμους στην τεχνητή νοημοσύνη για τα επόμενα 50 χρόνια.
Το τεστ Τούρινγκ
Το 1950 ο Άλαν Τούρινγκ δημοσίευσε ένα έγγραφο ορόσημο στο οποίο εικάζε για τη δυνατότητα δημιουργίας μηχανών που σκέφτονται.[56] Σημείωσε ότι η «σκέψη» είναι δύσκολο να οριστεί και επινόησε το περίφημο Τεστ Τούρινγκ.[57] Εάν ένα μηχάνημα μπορούσε να πραγματοποιήσει μια συνομιλία (με τηλετυπωτή) που δεν ήταν διακριτή από μια συνομιλία με έναν άνθρωπο, τότε ήταν λογικό να πούμε ότι το μηχάνημα «σκέφτεται». Αυτή η απλοποιημένη εκδοχή του προβλήματος επέτρεψε στον Τούρινγκ να υποστηρίξει πειστικά ότι μια «μηχανή σκέψης» ήταν τουλάχιστον εύλογη και η δημοσίευση απάντησε σε όλες τις πιο συνηθισμένες αντιρρήσεις για την πρόταση.[58] Το Τεστ Τούρινγκ ήταν η πρώτη σοβαρή πρόταση στη φιλοσοφία της τεχνητής νοημοσύνης.
Παιχνίδι AI
Το 1951, χρησιμοποιώντας τη μηχανή Ferranti Mark 1 του Πανεπιστημίου του Μάντσεστερ, ο Christopher Strachey έγραψε ένα πρόγραμμα Chekers και ο Dietrich Prinz έγραψε ένα για το σκάκι.[59] Το πρόγραμμα Chekers του Άρθουρ Σάμουελ, που αναπτύχθηκε στα μέσα της δεκαετίας του '50 και στις αρχές της δεκαετίας του '60, πέτυχε τελικά επαρκή ικανότητα για να προκαλέσει έναν αξιοσέβαστο ερασιτέχνη.[60] Το Game AI θα συνεχίσει να χρησιμοποιείται ως μέτρο προόδου στο AI σε όλη την ιστορία του.
Ο συμβολικός συλλογισμός και ο θεωρητικός της λογικής
Όταν η πρόσβαση σε ψηφιακούς υπολογιστές έγινε εφικτή στα μέσα της δεκαετίας του '50, μερικοί επιστήμονες αναγνώρισαν ενστικτωδώς ότι μια μηχανή που μπορούσε να χειριστεί αριθμούς μπορούσε επίσης να χειριστεί σύμβολα και ότι ο χειρισμός των συμβόλων θα μπορούσε κάλλιστα να είναι η ουσία της ανθρώπινης σκέψης. Αυτή ήταν μια νέα προσέγγιση για τη δημιουργία μηχανών σκέψης.[61]
Το 1955, ο Allen Newell και ο (μελλοντικός νομπελίστας) Herbert A. Simon δημιούργησαν το "Logic Theorist" (με τη βοήθεια του J.C. Shaw). Το πρόγραμμα θα αποδείκνυε τελικά 38 από τα πρώτα 52 θεωρήματα στο Principia Mathematica των Russell και Whitehead και θα έβρισκε νέες και πιο κομψές αποδείξεις για ορισμένα.[62] Ο Simon είπε ότι είχαν «λύσει το πρόβλημα μυαλού/σώματος, εξηγώντας πώς ένα σύστημα που αποτελείται από ύλη μπορεί να έχει τις ιδιότητες του νου». «: ότι οι μηχανές μπορούν να περιέχουν μυαλά όπως και τα ανθρώπινα σώματα.)[64]
Dartmouth Workshop 1956: η γέννηση του AI Το εργαστήριο Dartmouth του 1956[65] οργανώθηκε από τους Marvin Minsky, John McCarthy και δύο ανώτερους επιστήμονες: τον Claude Shannon και τον Nathan Rochester της IBM. Η πρόταση για το συνέδριο περιλάμβανε τον εξής ισχυρισμό: «κάθε πτυχή της μάθησης ή οποιοδήποτε άλλο χαρακτηριστικό της νοημοσύνης μπορεί να περιγραφεί με τόση ακρίβεια που μπορεί να κατασκευαστεί μια μηχανή για να την προσομοιώσει».[66] Οι συμμετέχοντες περιλάμβαναν τον Ray Solomonoff, τον Oliver Selfridge, τον Trenchard More, τον Arthur Samuel, τον Allen Newell και τον Herbert A. Simon, οι οποίοι θα δημιουργήσουν σημαντικά προγράμματα κατά τις πρώτες δεκαετίες της έρευνας για την τεχνητή νοημοσύνη.[67] Στο εργαστήριο οι Νιούελ και Σάιμον έκαναν το ντεμπούτο τους στον «Θεωρητικό της Λογικής» και ο ΜακΚάρθι έπεισε τους παρευρισκόμενους να αποδεχτούν την «Τεχνητή Νοημοσύνη» ως το όνομα του πεδίου.[68] Το εργαστήριο Dartmouth του 1956 ήταν η στιγμή που η τεχνητή νοημοσύνη κέρδισε το όνομά της, την αποστολή της, την πρώτη της επιτυχία και τους μεγάλους παίκτες της, και θεωρείται ευρέως η γέννηση της τεχνητής νοημοσύνης.[69] Ο όρος «Τεχνητή Νοημοσύνη» επιλέχθηκε από τον McCarthy για να αποφευχθούν οι συσχετίσεις με την κυβερνητική και οι διασυνδέσεις με τον επιδραστικό κυβερνοδιαφημιστή Norbert Wiener.[70] Συμβολική ΑΙ 1956-1974 Κύριο άρθρο: Συμβολική τεχνητή νοημοσύνη Τα προγράμματα που αναπτύχθηκαν τα χρόνια μετά το Εργαστήριο του Dartmouth ήταν, για τους περισσότερους ανθρώπους, απλά «εκπληκτικά»:[71] οι υπολογιστές έλυναν προβλήματα λέξεων άλγεβρας, απέδειξαν θεωρήματα στη γεωμετρία και μάθαιναν να μιλούν αγγλικά. Λίγοι εκείνη την εποχή θα πίστευαν ότι μια τέτοια «έξυπνη» συμπεριφορά από μηχανές ήταν καθόλου δυνατή.[72] Οι ερευνητές εξέφρασαν μια έντονη αισιοδοξία στον ιδιωτικό και στον έντυπο τύπο, προβλέποντας ότι μια πλήρως έξυπνη μηχανή θα κατασκευαστεί σε λιγότερο από 20 χρόνια.[73] Κυβερνητικές υπηρεσίες όπως η DARPA έριξαν χρήματα στο νέο πεδίο.[74]
Βαθιά μάθηση, μεγάλα δεδομένα και τεχνητή γενική νοημοσύνη: 2011–σήμερα Στις πρώτες δεκαετίες του 21ου αιώνα, η πρόσβαση σε μεγάλες ποσότητες δεδομένων (γνωστά ως "μεγάλα δεδομένα"), φθηνότεροι και ταχύτεροι υπολογιστές και προηγμένες τεχνικές μηχανικής μάθησης εφαρμόστηκαν με επιτυχία σε πολλά προβλήματα σε όλη την οικονομία. Πράγματι, το McKinsey Global Institute εκτίμησε στη διάσημη εργασία του «Big data: The next frontier for innovation, ανταγωνισμό και παραγωγικότητα» ότι «μέχρι το 2009, σχεδόν όλοι οι τομείς της αμερικανικής οικονομίας είχαν κατά μέσο όρο τουλάχιστον 200 terabytes αποθηκευμένων δεδομένων». . Μέχρι το 2016, η αγορά για προϊόντα, υλικό και λογισμικό που σχετίζονται με την τεχνητή νοημοσύνη έφτασε τα 8 δισεκατομμύρια δολάρια και οι New York Times ανέφεραν ότι το ενδιαφέρον για την τεχνητή νοημοσύνη είχε φτάσει σε «φρενίτιδα».[208] Οι εφαρμογές των μεγάλων δεδομένων άρχισαν να φτάνουν και σε άλλα πεδία, όπως μοντέλα εκπαίδευσης στην οικολογία[209] και για διάφορες εφαρμογές στα οικονομικά.[210] Η πρόοδος στη βαθιά μάθηση (ιδιαίτερα τα βαθιά συνελικτικά νευρωνικά δίκτυα και τα επαναλαμβανόμενα νευρωνικά δίκτυα) οδήγησαν στην πρόοδο και την έρευνα στην επεξεργασία εικόνας και βίντεο, στην ανάλυση κειμένου, ακόμη και στην αναγνώριση ομιλίας.[211]
Βαθιά μάθηση
Κύριο άρθρο: Βαθιά μάθηση
Η βαθιά μάθηση είναι ένας κλάδος της μηχανικής μάθησης που μοντελοποιεί αφαιρέσεις υψηλού επιπέδου σε δεδομένα χρησιμοποιώντας ένα βαθύ γράφημα με πολλά επίπεδα επεξεργασίας.[211] Σύμφωνα με το καθολικό θεώρημα προσέγγισης, το βάθος δεν είναι απαραίτητο για ένα νευρωνικό δίκτυο να μπορεί να προσεγγίζει αυθαίρετες συνεχείς συναρτήσεις. Ακόμα κι έτσι, υπάρχουν πολλά προβλήματα που είναι κοινά σε ρηχά δίκτυα (όπως η υπερπροσαρμογή) που τα βαθιά δίκτυα βοηθούν να αποφευχθούν.[212] Ως εκ τούτου, τα βαθιά νευρωνικά δίκτυα είναι σε θέση να παράγουν ρεαλιστικά πολύ πιο πολύπλοκα μοντέλα σε σύγκριση με τα ρηχά αντίστοιχα.
Ωστόσο, η βαθιά μάθηση έχει τα δικά της προβλήματα. Ένα κοινό πρόβλημα για τα επαναλαμβανόμενα νευρωνικά δίκτυα είναι το πρόβλημα της κλίσης εξαφάνισης, όπου οι διαβαθμίσεις που περνούν μεταξύ των στρωμάτων σταδιακά συρρικνώνονται και κυριολεκτικά εξαφανίζονται καθώς στρογγυλοποιούνται στο μηδέν. Έχουν αναπτυχθεί πολλές μέθοδοι για την προσέγγιση αυτού του προβλήματος, όπως μονάδες βραχυπρόθεσμης μνήμης.
Οι αρχιτεκτονικές βαθιών νευρωνικών δικτύων τελευταίας τεχνολογίας μπορούν μερικές φορές να ανταγωνιστούν ακόμη και την ανθρώπινη ακρίβεια σε πεδία όπως η όραση υπολογιστή, ειδικά σε πράγματα όπως η βάση δεδομένων MNIST και η αναγνώριση σημάτων κυκλοφορίας.[213]
Οι μηχανές επεξεργασίας γλωσσών που τροφοδοτούνται από έξυπνες μηχανές αναζήτησης μπορούν εύκολα να νικήσουν τους ανθρώπους στην απάντηση σε γενικές ερωτήσεις (όπως η IBM Watson) και οι πρόσφατες εξελίξεις στη βαθιά μάθηση έχουν παράγει εκπληκτικά αποτελέσματα στον ανταγωνισμό με τους ανθρώπους, σε πράγματα όπως το Go και το Doom (που είναι ένα παιχνίδι shooter πρώτου προσώπου, έχει πυροδοτήσει κάποιες διαμάχες).[214][215][216][217]
μεγάλα δεδομένα
Κύριο άρθρο: Big Data
Τα μεγάλα δεδομένα αναφέρονται σε μια συλλογή δεδομένων που δεν μπορούν να συλληφθούν, να διαχειριστούν και να υποβληθούν σε επεξεργασία από συμβατικά εργαλεία λογισμικού εντός συγκεκριμένου χρονικού πλαισίου. Είναι ένας τεράστιος όγκος δυνατοτήτων λήψης αποφάσεων, διορατικότητας και βελτιστοποίησης διαδικασιών που απαιτούν νέα μοντέλα επεξεργασίας. Στην εποχή των μεγάλων δεδομένων που γράφτηκε από τους Victor Meyer Schonberg και Kenneth Cooke, τα μεγάλα δεδομένα σημαίνουν ότι αντί για τυχαία ανάλυση (δειγματοληπτική έρευνα), όλα τα δεδομένα χρησιμοποιούνται για ανάλυση. Τα χαρακτηριστικά 5V των μεγάλων δεδομένων (προτεινόμενα από την IBM): Volume, Velocity, Variety[218], Value[219], Veracity[220]. Η στρατηγική σημασία της τεχνολογίας μεγάλων δεδομένων δεν είναι να κατέχει κανείς τεράστιες πληροφορίες δεδομένων, αλλά να ειδικεύεται σε αυτά τα σημαντικά δεδομένα. Με άλλα λόγια, εάν τα μεγάλα δεδομένα παρομοιάζονται με έναν κλάδο, το κλειδί για την επίτευξη κερδοφορίας σε αυτόν τον κλάδο είναι να αυξηθεί η «ικανότητα διαδικασίας» των δεδομένων και να πραγματοποιηθεί η «προστιθέμενη αξία» των δεδομένων μέσω της «επεξεργασίας».
Hellenica World - Scientific Library
Από τη ελληνική Βικιπαίδεια http://el.wikipedia.org . Όλα τα κείμενα είναι διαθέσιμα υπό την GNU Free Documentation License