|
Παράλληλα, τα σύγχρονα
AI data centers
μετασχηματίζονται. Αντί
για ομοιογενή συστήματα
βασισμένα αποκλειστικά
σε GPU, εξελίσσονται σε
υβριδικές υποδομές που
συνδυάζουν διαφορετικούς
τύπους επεξεργαστών,
επιτυγχάνοντας καλύτερη
απόδοση, χαμηλότερη
κατανάλωση ρεύματος και
μειωμένο λειτουργικό
κόστος.
Για
χρόνια, η κυριαρχία της
Nvidia ήταν ταυτισμένη
με την ιδέα ότι οι GPU
αποτελούν τη «μηχανή»
της Τεχνητής Νοημοσύνης.
Ωστόσο, η συμφωνία των
20 δισ. δολαρίων με τη
Groq αποτελεί έμμεση
αναγνώριση ότι η επόμενη
φάση του κλάδου δεν θα
βασιστεί αποκλειστικά σε
αυτήν την τεχνολογία.
Η Groq
αναπτύσσει έναν εντελώς
διαφορετικό τύπο
επεξεργαστή, γνωστό ως
Language Processing Unit
(LPU). Για να γίνει
κατανοητό γιατί η Nvidia
επέλεξε να επενδύσει
—αντί να αναπτύξει μόνη
της αυτή τη λύση— πρέπει
να εξεταστεί η
κατεύθυνση των
υπολογιστικών φορτίων
της AI. Ο κλάδος
απομακρύνεται σταδιακά
από την εκπαίδευση
μοντέλων και στρέφεται
στη μαζική, πραγματική
χρήση τους. Αυτή η φάση
ονομάζεται inference ή
συμπερασματοποίηση.
Το
inference αφορά τη
στιγμή που ένα
εκπαιδευμένο μοντέλο
απαντά σε ερωτήσεις,
παράγει περιεχόμενο ή
αλληλεπιδρά με τους
χρήστες. Σύμφωνα με
εκτιμήσεις αναλυτών της
RBC Capital, αυτή η
δραστηριότητα αναμένεται
να εξελιχθεί στο
κυρίαρχο κομμάτι της
αγοράς AI, ξεπερνώντας
σε αξία ακόμη και την
εκπαίδευση.
Η
διαφορά έχει κρίσιμη
σημασία, επειδή το
inference απαιτεί
διαφορετικές
προτεραιότητες. Η
εκπαίδευση μοιάζει με τη
δημιουργία ενός
εγκεφάλου: χρειάζεται
ακραία υπολογιστική ισχύ
και ευελιξία. Αντίθετα,
το inference θυμίζει τη
χρήση αυτού του
εγκεφάλου σε πραγματικό
χρόνο, όπου η ταχύτητα
απόκρισης, η
σταθερότητα, η
ενεργειακή απόδοση και
το κόστος ανά λειτουργία
είναι καθοριστικοί
παράγοντες.
Σε αυτό
το σημείο ξεχωρίζει η
Groq. Η εταιρεία, που
ιδρύθηκε από πρώην
μηχανικούς της Google,
επικεντρώνεται
αποκλειστικά στο
inference. Οι LPU που
σχεδιάζει λειτουργούν
όχι ως γενικής χρήσης
επεξεργαστές, αλλά σαν
εξαιρετικά
βελτιστοποιημένες
γραμμές παραγωγής. Οι
εντολές εκτελούνται με
προκαθορισμένη σειρά,
χωρίς αποκλίσεις,
εξασφαλίζοντας
προβλέψιμη απόδοση και
ελάχιστη καθυστέρηση.
Αυτή η αρχιτεκτονική δεν
είναι ιδανική για
εκπαίδευση, όμως
προσφέρει σαφές
πλεονέκτημα στη
λειτουργία μοντέλων σε
πραγματικές συνθήκες.
Αντίθετα, οι GPU της
Nvidia έχουν σχεδιαστεί
με έμφαση στην ευελιξία.
Χρησιμοποιούν σύνθετους
μηχανισμούς διαχείρισης
εργασιών και μεγάλους
όγκους μνήμης για να
ανταποκρίνονται σε
πολλαπλά και
μεταβαλλόμενα φορτία.
Αυτή ακριβώς η ευελιξία
τις έκανε κυρίαρχες στην
εκπαίδευση μοντέλων,
αλλά συνεπάγεται και
κόστος σε ταχύτητα και
αποδοτικότητα όταν
πρόκειται για inference
μεγάλης κλίμακας.
Το
οικονομικό σκέλος είναι
εξίσου κρίσιμο. Όπως
επισημαίνει το Business
Insider, το inference
είναι το σημείο όπου τα
προϊόντα AI αρχίζουν να
αποδίδουν έσοδα. Εκεί
κρίνεται αν οι τεράστιες
επενδύσεις σε υποδομές
δεδομένων μπορούν τελικά
να μετατραπούν σε
βιώσιμα επιχειρηματικά
μοντέλα.
Η
στρατηγική της Nvidia,
ωστόσο, δεν βασίζεται σε
έναν μοναδικό «νικητή».
Οι GPU θα συνεχίσουν να
αποτελούν τη ραχοκοκαλιά
της εκπαίδευσης και των
σύνθετων, ευέλικτων
εργασιών. Τα
εξειδικευμένα τσιπ, όπως
οι LPU της Groq, θα
αναλάβουν το ταχύ,
χαμηλής καθυστέρησης
inference. Το πραγματικό
πλεονέκτημα της Nvidia
βρίσκεται στο
οικοσύστημα που ενοποιεί
αυτές τις τεχνολογίες:
λογισμικό, δικτύωση και
εργαλεία ανάπτυξης που
επιτρέπουν τη συνεργασία
τους.
Όπως
σημειώνουν αναλυτές της
RBC, τα AI data centers
εξελίσσονται σε μικτά
περιβάλλοντα όπου GPU
και εξειδικευμένα ASIC
συνυπάρχουν, το καθένα
βελτιστοποιημένο για
διαφορετικό ρόλο.
Κάποιοι ανταγωνιστές
ερμηνεύουν τη συμφωνία
ως ένδειξη ότι οι GPU
δεν επαρκούν για
inference υψηλών
απαιτήσεων. Άλλοι τη
βλέπουν ως επιβεβαίωση
ενός πιο πολυδιάστατου
μέλλοντος. Ο CEO της
Nvidia, Jensen Huang,
φαίνεται να υιοθετεί
ξεκάθαρα τη δεύτερη
προσέγγιση: με την
ενσωμάτωση της
τεχνολογίας και της
ομάδας της Groq, η
Nvidia διασφαλίζει ότι
μπορεί να προσφέρει
ολόκληρο το φάσμα λύσεων
που θα χρειαστεί η
επόμενη γενιά της
Τεχνητής Νοημοσύνης.
|