Liquid AI: Ανακοινώνει τα Language Liquid Foundation Models

secnews.gr

IT Security News, Gadgets, Tweaks for Geeks and More

Liquid AI: Ανακοινώνει τα Language Liquid Foundation Models
https://www.secnews.gr/622672/liquid-ai-anakoinwnei-ta-language-liquid-foundation-models/
Oct 1st 2024, 12:09

Η Liquid AI παρουσίασε τη νέα σειρά γλωσσικών μοντέλων Liquid Foundation Models (LFM) που υπόσχονται να αναδιαμορφώσουν το τοπίο της τεχνητής νοημοσύνης (AI).







Τα Liquid Foundation Models (LFM) της εταιρείας επιδεικνύουν κορυφαίες επιδόσεις, ενώ ταυτόχρονα διατηρούν μικρότερο αποτύπωμα μνήμης και προσφέρουν πιο αποτελεσματικά συμπεράσματα σε σύγκριση με τις παραδοσιακές transformer-based αρχιτεκτονικές.



Διαβάστε σχετικά: Europol: Το Generative AI μπορεί να βοηθήσει τις αρχές επιβολής του νόμου



Η έκδοση περιλαμβάνει τρία μοντέλα: LFM-1B, LFM-3B και LFM-40B. Κάθε μοντέλο στοχεύει σε μια συγκεκριμένη θέση στο οικοσύστημα της τεχνητής νοημοσύνης, καλύπτοντας από περιβάλλοντα με περιορισμένους πόρους έως πιο σύνθετες εργασίες που απαιτούν μεγαλύτερους αριθμούς παραμέτρων.



Το LFM-1B, με 1,3 δισεκατομμύρια παραμέτρους, καθορίζει νέο σημείο αναφοράς στην κατηγορία του. Είναι η πρώτη αρχιτεκτονική που δεν βασίζεται στο GPT και ξεπερνά σημαντικά τα transformer-based μοντέλα παρόμοιας κλίμακας σε διάφορα δημόσια σημεία αναφοράς.



Η παράμετρος 3,1 δισεκατομμυρίων LFM-3B είναι σχεδιασμένη για ανάπτυξη άκρων, ιδίως σε εφαρμογές κινητών συσκευών. Η Liquid AI αναφέρει ότι όχι μόνο ξεπερνά τα άλλα μοντέλα 3Β, αλλά και ορισμένα μοντέλα παραμέτρων 7Β και 13Β. Η εταιρεία υποστηρίζει ότι επιτυγχάνει απόδοση συγκρίσιμη με εκείνη του Phi-3.5-mini της Microsoft σε πολλαπλές δοκιμές αναφοράς, ενώ είναι 18,4% μικρότερη.



Δείτε ακόμη: Το WhatsApp θα διευκολύνει την εύρεση ημιτελών μηνυμάτων



Το LFM-40B αξιοποιεί μια τεχνική Mixture of Experts (MoE), ενεργοποιώντας 12 δισεκατομμύρια παραμέτρους κατά τη διάρκεια της χρήσης. Η Liquid AI υποστηρίζει ότι αυτό το μοντέλο προσφέρει απόδοση συγκρίσιμη με μεγαλύτερα μοντέλα, ενώ επιτρέπει υψηλότερη αποδοτικότητα σε πιο οικονομικά αποδοτικό υλικό.



Ένας βασικός παράγοντας που διαφοροποιεί τα LFM είναι η προσέγγισή τους στην επεξεργασία μεγάλων εισροών. Σε αντίθεση με τα transformer-based μοντέλα, όπου η κατανάλωση μνήμης αυξάνεται γραμμικά με το μήκος της εισόδου, τα LFM διατηρούν ένα πιο σταθερό αποτύπωμα μνήμης. Αυτή η αποτελεσματικότητα τους επιτρέπει να επεξεργάζονται μεγαλύτερες ακολουθίες με την ίδια υποδομή, με την εταιρεία να αναφέρει βελτιστοποιημένο μήκος περιβάλλοντος 32.000 διακριτικών στα μοντέλα της.



Η προσέγγιση του Liquid AI διαφοροποιείται από τις παραδοσιακές transformer-based αρχιτεκτονικές, καθώς αντλεί έμπνευση από τις αρχές των δυναμικών συστημάτων, την επεξεργασία σήματος και την αριθμητική γραμμική άλγεβρα. Η εταιρεία υποστηρίζει ότι αυτή η θεμελιώδης βάση επιτρέπει στα LFM να αξιοποιήσουν δεκαετίες θεωρητικής προόδου στους τομείς αυτούς.



Διαβάστε επίσης: Οι πιο ενδιαφέρουσες θεωρίες συνωμοσίας μετά τη σύλληψη του Diddy



Παρά τις εντυπωσιακές του δυνατότητες, το Liquid AI αναγνωρίζει τους υπάρχοντες περιορισμούς. Τα μοντέλα του αντιμετωπίζουν προκλήσεις σε εργασίες μηδενικής λήψης κώδικα, σε ακριβείς αριθμητικούς υπολογισμούς, καθώς και σε πληροφορίες που είναι ευαίσθητες στο χρόνο, μεταξύ άλλων.



Αν θέλετε να δοκιμάσετε τα LFM, έχετε αρκετές επιλογές: το Liquid Playground, το Lambda (μέσω του Chat UI και του API) και το Perplexity Labs. Η εταιρεία ανακοίνωσε επίσης ότι η υποστήριξη για αυτά τα μοντέλα θα επεκταθεί σύντομα και από την Cerebras Inference. Επιπλέον, το Liquid AI βελτιστοποιεί τη στοίβα LFM για υλικό από τις NVIDIA, AMD, Qualcomm, Cerebras και Apple, διευρύνοντας έτσι την προσβασιμότητά τους σε ποικιλία υπολογιστικών περιβαλλόντων.



Ωστόσο, παρά τα εντυπωσιακά χαρακτηριστικά και την καινοτόμο αρχιτεκτονική των μοντέλων Liquid Foundation's Liquid AI, είναι σημαντικό να αναγνωρίσουμε ότι αυτή η τεχνολογία βρίσκεται ακόμη σε πρώιμο στάδιο ανάπτυξης. Ενώ τα μοντέλα υποσχέθηκαν πολλά σε θεωρητικό επίπεδο, η πραγματική τους αποτελεσματικότητα και επεκτασιμότητα δεν έχουν δοκιμαστεί πλήρως στον πραγματικό κόσμο.







Δείτε περισσότερα: Το DCRat στοχεύει Ρωσόφωνους χρήστες μέσω HTML Smuggling



Καθώς η κοινότητα της τεχνητής νοημοσύνης συνεχίζει να εξερευνά νέες αρχιτεκτονικές μοντέλων, τα LFM αποτελούν μια σημαντική πρόοδο που μπορεί να επηρεάσει τις μελλοντικές κατευθύνσεις του τομέα. Ωστόσο, μόνο ο χρόνος και η πρακτική εφαρμογή θα αποκαλύψουν την πραγματική τους επίδραση στο ευρύτερο τοπίο της τεχνητής νοημοσύνης.



Πηγή: maginative



You are receiving this email because you subscribed to this feed at https://blogtrottr.com

If you no longer wish to receive these emails, you can unsubscribe here:
https://blogtrottr.com/unsubscribe/nfz/3xfHTz
Σχόλια