Η επιστήμη και η τεχνολογία πίσω από τα τσιπ τεχνητής νοημοσύνης είναι πιο ενεργή από ποτέ, αν κρίνουμε από το τεράστιο συνέδριο Hot Chips στο Πανεπιστήμιο Στάνφορντ αυτή την εβδομάδα.
Το σόου Hot Chips, που διανύει τώρα τον 36ο χρόνο του, προσελκύει 1.500 παρευρισκόμενους, λίγο περισσότεροι από τους μισούς από τους οποίους παρακολουθούν τη διαδικτυακή μετάδοση και οι υπόλοιποι στο Stanford’s Memorial Auditorium. Για δεκαετίες, η εκπομπή ήταν εστία συζήτησης για τα πιο πρόσφατα τσιπ από την Intel, την AMD, την IBM και πολλούς άλλους προμηθευτές, και οι εταιρείες συχνά χρησιμοποιούν την έκθεση για να παρουσιάσουν νέα προϊόντα.
Επίσης: Ο Linus Torvalds μιλά για την τεχνητή νοημοσύνη, υιοθετώντας το Rust και γιατί ο πυρήνας του Linux είναι “το μόνο πράγμα που έχει σημασία”
Φέτος το συνέδριο έλαβε περισσότερες από εκατό αιτήσεις για παρουσιάσεις από όλο τον κόσμο. Ως αποτέλεσμα, έγιναν δεκτές 24 εργασίες, περίπου όσες θα χωρούσαν σε μια διήμερη μορφή συνεδρίου. Πραγματοποιήθηκαν δύο προπονήσεις την Κυριακή και μια βασική παρουσίαση τη Δευτέρα και την Τρίτη. Προγραμματίζονται επίσης δεκατρείς συνεδρίες αφίσας.
Οι ομιλίες του τεχνικού σταδίου και οι παρουσιάσεις με αφίσες είναι πολύ τεχνικές και προσανατολισμένες στον μηχανικό. Το κοινό έχει την τάση να πετάει φορητούς υπολογιστές και πολλές οθόνες, σαν να διεξάγει συνεδρίες στα προσωπικά του γραφεία.
Η πρωινή συνεδρία της Δευτέρας, η οποία περιελάμβανε παρουσιάσεις από την Qualcomm για τον επεξεργαστή κέντρου δεδομένων Oryon και τον επεξεργαστή Lunar Lake της Intel, συγκέντρωσε μεγάλο κοινό και πολλές ερωτήσεις.
Τα τελευταία χρόνια, έχει δοθεί μεγάλη προσοχή στα τσιπ που έχουν σχεδιαστεί για την καλύτερη εκτέλεση μορφών νευρωνικών δικτύων AI. Το φετινό συνέδριο περιλάμβανε μια κεντρική ομιλία από τον Trevor Kaye του OpenAI, επικεφαλής υλικού της εταιρείας, με θέμα «Προβλεπόμενη κλιμάκωση και υποδομή».
Ο Cai, ο οποίος αφιέρωσε το χρόνο του στη δημιουργία της υπολογιστικής υποδομής του OpenAI, είπε ότι το ChatGPT είναι το αποτέλεσμα της εταιρείας “που ξοδεύει χρόνια και δισεκατομμύρια δολάρια βελτιώνεται στην πρόβλεψη της επόμενης λέξης”. Αυτό οδήγησε σε διαδοχικές ικανότητες όπως η «μηδενική μάθηση».
«Πώς ξέραμε ότι θα λειτουργούσε;» – ρώτησε ρητορικά ο Τσάι. Επειδή υπάρχουν «νόμοι κλιμάκωσης» που δείχνουν ότι η χωρητικότητα μπορεί να αυξηθεί προβλέψιμα ως «νόμος ισχύος» των σχετικών υπολογισμών. Κάθε φορά που ο υπολογισμός διπλασιάζεται, η ακρίβεια πλησιάζει την «μη αναγώγιμη» εντροπία, εξήγησε.
Επίσης: Τι να περιμένετε από το Meta Connect 2024: ένα πιο προσιτό Quest, γυαλιά επαυξημένης πραγματικότητας και πολλά άλλα
«Αυτό είναι που μας επιτρέπει να κάνουμε επενδύσεις, να δημιουργήσουμε τεράστια συμπλέγματα» υπολογιστών, είπε ο Τσάι. Υπάρχουν «τεράστιοι αντίθετοι άνεμοι» για να συνεχίσουμε να κινούμαστε κατά μήκος της καμπύλης κλιμάκωσης, είπε ο Τσάι. Το OpenAI θα πρέπει να αντιμετωπίσει πολύ σύνθετες καινοτομίες αλγορίθμων, είπε.
Από την πλευρά του υλικού, «το κόστος σε δολάρια και το ενεργειακό κόστος αυτών των τεράστιων συμπλεγμάτων γίνονται σημαντικά ακόμη και για τις μεγαλύτερες εταιρείες δημιουργίας ελεύθερων ταμειακών ροών», είπε ο Τσάι.
Το συνέδριο συνεχίζεται την Τρίτη με παρουσιάσεις από την Advanced Micro Devices και την startup Cerebras Systems, μεταξύ άλλων.