Tutti i settori e le applicazioni moderne stanno subendo una rapida trasformazione grazie ai progressi in termini di accelerazione del calcolo, apprendimento approfondito e intelligenza artificiale. La fase successiva di questa trasformazione richiede un'infrastruttura dati intelligente che possa avvicinare ai e calcolo ai dati aziendali.
Quando parlo con i nostri clienti, le sfide di cui parlano implicano l'integrazione dei loro dati e dei loro flussi di lavoro ai aziendali. Il fulcro di questo problema è l'applicazione della tecnologia ai ai dati che già possiedono, nel cloud, on-premise o più probabilmente in entrambi.
Immagina di essere un data engineer. Il team di marketing può creare risorse migliori e il team di assistenza clienti può fornire chatbot rivolti ai clienti. I dati sono distribuiti nei diversi sistemi storage e non si sa dove si trova. Esporti, sposti e centralizzi i tuoi dati a scopo di training, con tutte le inefficienze di tempo e capacità associate. Il modello viene creato, ma la cronologia e il contesto dei dati utilizzati vengono persi, pertanto non è possibile risalire al modello di origine. Tutti i dati sono archiviati on-premise, ma il training viene effettuato sul cloud dove si trovano le tue GPU.
Queste sfide sono abbastanza comuni per i data engineer e i data scientist con cui parliamo. NetApp sta già affrontando molte di queste sfide. Ma con l’aumento della formazione dei modelli e la necessità di un numero sempre maggiore di dati da formare, questi problemi saranno amplificati.
Man mano che si prende forma il training ai e i workload di fine-tuning di nuova generazione, i limiti dell'infrastruttura esistente rischieranno di rallentare l'innovazione. Alcune sfide includono l'infrastruttura dati che consente scalabilità e ottimizzazione per l'ai, la gestione dei dati per informare i flussi di lavoro ai dove risiedono i dati e come possono essere utilizzati, e servizi dati associati che aiutano i data scientist a proteggere i flussi di lavoro ai e mantenere puliti i propri modelli.
Infrastruttura dati scalabile
Con la sempre maggiore complessità dei modelli di intelligenza artificiale, aumentano i requisiti di calcolo. Le aziende hanno bisogno di un'infrastruttura in grado di scalare e fornire le performance elevate richieste per attività ai intensive, come il training e la messa a punto di modelli di grandi lingue. Allo stesso tempo, l'ottimizzazione dell'utilizzo delle risorse non di storage, come la massimizzazione dell'utilizzo della GPU, è fondamentale per operazioni ai convenienti, perché le risorse sottoutilizzate possono causare un aumento delle spese. La massimizzazione dell'utilizzo della GPU è un fattore critico per operazioni ai convenienti e la capacità di ottenerle richiede un migliore throughput dello storage per le operazioni di lettura e scrittura. Infine, i dati di training vengono tipicamente archiviati on-premise, mentre i modelli di ai sono spesso addestrati nel cloud, il che significa che i carichi di lavoro ai spesso si estendono tra ambienti on-premise e diversi ambienti cloud. Ciò significa che l'infrastruttura deve fornire mobilità e gestione dei dati perfette in tutti questi sistemi.
Gestione universale dei dati
I workload ai richiedono spesso l'accesso a grandi quantità di dati, che possono essere sparsi in un'azienda in sistemi e formati diversi. Questa sfida diventa ancora più grande man mano che le aziende utilizzano i propri dati proprietari si trovano spesso all'interno delle proprie infrastrutture dati per ottimizzare e recuperare casi di utilizzo di generazione aumentata (RAG). I silos di dati rendono difficile aggregare e analizzare i dati in modo efficace per l'ai. Inoltre, la gestione del ciclo di vita dei dati ai, dall'acquisizione all'elaborazione fino allo storage, richiede soluzioni di gestione dei dati sofisticate in grado di gestire la complessità e il volume dei dati non strutturati. Perché l'ai sia efficace, i dati rilevanti devono essere facilmente rilevabili e accessibili, cosa che richiede potenti tool di gestione dei metadati e di esplorazione dei dati.
Servizi dati intelligenti
Con il diffondersi dell'ai, c'è sempre più bisogno di una sicurezza e una governance solide per proteggere i dati sensibili e per soddisfare i requisiti normativi, in particolare a dispetto di minacce come i ransomware. I modelli costruiti a partire da dati tossici o manomissioni intenzionali hanno il potenziale per causare grandi danni alle operazioni di business che si affidano sempre più all'ai. Inoltre, come per qualsiasi carico di lavoro Enterprise, i dati devono essere disponibili e protetti dai disastri naturali e dalle interruzioni del sistema, per poter continuare le operazioni e prevenire costosi downtime.
Oggi NetApp è leader riconosciuto nell'infrastruttura ai. Da oltre un decennio, i clienti innovativi stanno estraendo informazioni basate sull'ai dai dati gestiti sulle soluzioni NetApp . In qualità di partner di lunga data di NVIDIA, NetApp ha fornito architetture NVIDIA DGX SuperPOD e NetApp ® APod™ certificate e ha assistito alla rapida adozione dei flussi di lavoro ai sulle offerte cloud first-party degli hyperscaler. In qualità di leader nello storage dei dati non strutturati, i clienti si affidano a NetApp per le loro risorse di dati più preziose.
Come abbiamo raggiunto questo livello di fiducia? Attraverso un'innovazione costante. I clienti ci affidano i loro dati, vediamo ancora più opportunità per aiutarli a rendere operativi l'ai e i carichi di lavoro dalle performance elevate. Ecco perché stiamo introducendo una nuova architettura disaggregata che consentirà ai nostri clienti di continuare a superare i limiti legati a performance e scalabilità. Un motore di gestione dei metadati avanzato consente ai clienti di conoscere tutte le risorse dati all'interno dell'organizzazione e semplificare il training dei modelli e il tuning. Inoltre, un set integrato di servizi dati aiuta a gestire quei dati e quell'infrastruttura, proteggendoli da minacce naturali e umane. Tutto questo è basato su NetApp ONTAP ®, l'architettura di storage unificata leader di settore, per fornire un'architettura unificata che integri tutta l'infrastruttura dati. Il DNA chiave di NetApp ci ha sempre consentito di evolvere e adottare nuove tecnologie, mantenendo al contempo la sicurezza robusta, le funzionalità aziendali e la facilità d'uso da cui dipendono i nostri clienti. Sono felice di darti un'anteprima delle novità di ONTAP che si trovano dietro l'angolo.
La nostra visione di un motore di gestione dei dati ai unificato rivoluzionerà il modo in cui le organizzazioni si approcciano e sfrutteranno la potenza dell'ai. Il nostro motore di gestione dei dati sarà progettato per eliminare i silos di dati fornendo una vista unificata delle risorse dati, automatizzando l'acquisizione delle modifiche nei dati per una rapida inferenza e un'integrazione perfetta con strumenti ai per i flussi di lavoro ai end-to-end. NetApp sta inoltre innovando nel livello dell'infrastruttura con sistemi scalabili dalle performance elevate e nel livello di intelligence con governance e sicurezza basate su policy.
Innovazioni pianificate
In NetApp, prevediamo un futuro in cui i data scientist possono sedersi al proprio strumento di intelligenza artificiale preferito e mettere a punto un modello utilizzando un catalogo di dati che copre l'intero patrimonio dati. Non sarà necessario che sappiano dove sono memorizzati, il catalogo avrà quel dettaglio. Inoltre, il catalogo bloccherà anche i dati troppo sensibili per la formazione dei modelli. I dati di formazione verranno acquisiti con una copia Snapshot™ NetApp point-in-time efficiente in termini di spazio, in modo che i data scientist possano sempre tornare indietro e analizzare i dati nel loro stato originale se hanno bisogno di comprendere le decisioni di un modello. Inoltre, potranno fare tutto questo dal cloud di loro scelta, indipendentemente dal fatto che i dati di training si trovino nello stesso cloud, in un altro cloud o archiviati on-premise. Nel frattempo, l'infrastruttura dedicata ai dati fornirà la scalabilità e le performance necessarie per saturare completamente il resto dell'infrastruttura ai, sfruttando al meglio queste risorse critiche e garantire rapidamente modelli ottimizzati. Questo futuro non è inverosimile o lontano. NetApp ha già creato gran parte dell'infrastruttura e sta realizzando ora la prossima fase dell'ai.
Stiamo insperabilmente cercando di far progredire le funzionalità di ONTAP, puntando a soddisfare e superare le richieste delle imprese basate sull'ai. Creando un ambiente dati unificato, migliorando l'integrazione dei tool ai, automatizzando la gestione intelligente dei dati e assegnando priorità a performance e scalabilità, stiamo consolidando la nostra posizione di leadership nello storage dei dati e nella gestione per l'ai. Questi progressi strategici sono progettati per semplificare le complessità dei progetti di IA, espandere l'accessibilità dei dati, migliorare la disponibilità e la sicurezza dei dati e ridurre i costi associati, rendendo così le tecnologie ai più accessibili per organizzazioni diverse. Per ulteriori informazioni sui prossimi sviluppi per NetApp ONTAP e sul nostro motore di gestione dei dati ai, leggi il white paper: ONTAP, l'azienda pioniera nella gestione dei dati nell'era dell'apprendimento approfondito
Disclaimer: Questo post del blog parla della visione di NetApp per l'innovazione futura, alcune delle quali potrebbero riguardare offerte non pubblicate. NetApp condivide queste informazioni solo a scopo informativo e non è consigliabile fare affidamento su queste informazioni nel prendere decisioni di acquisto. NetApp non si impegna e non ha alcun obbligo di sviluppare o fornire alcun prodotto o servizio, o qualsiasi caratteristica, materiale, codice o funzionalità correlati. Lo sviluppo, il rilascio e la tempistica di qualsiasi caratteristica o funzionalità per i prodotti e i servizi NetApp rimangono ad esclusiva discrezione di NetApp. La strategia di NetApp e gli eventuali futuri sviluppi, le direttive in materia di prodotti e piattaforme e le funzionalità sono soggetti a modifiche senza preavviso. Decliniamo qualsiasi obbligo di aggiornamento delle informazioni contenute in questo post del blog, sia come risultato di nuove informazioni, eventi futuri o altro. Nessun sistema di rilevamento o recovery dal ransomware può garantire completamente la sicurezza in caso di attacco. Anche se è possibile che un attacco non venga rilevato, la tecnologia NetApp agisce come un importante ulteriore livello di difesa. Tutte le informazioni vengono fornite senza alcuna garanzia e senza alcuna responsabilità nei confronti di NetApp.
Krish è Senior Vice president per Core Platforms di NetApp. Il team Core Platforms è responsabile della piattaforma di storage unificato, della piattaforma di gestibilità, dell'ufficio Customer Experience (CXO) e del Chief Design Office (CDO) e consente l'erogazione di varie offerte NetApp sia on-premise che nel cloud ibrido e nei servizi dati. Krish ha conseguito una laurea in economia aziendale presso la Santa Clara University e un master in ingegneria dei sistemi informatici presso la Arizona state University. Krish è anche un innovatore e hacker di comprovata efficacia, con oltre 30 brevetti, principalmente in sistemi distribuiti, modelli di rilevamento dello spam, utilizzando grafici e reti per il rilevamento delle anomalie.