2017
Parliamo di big data quando si ha a che fare con volumi di dati tali da non poter più essere gestiti con strumenti tradizionali. Non solo la dimensione, ma anche la velocità di analisi richiesta e la grande varietà di tipi di dati disponibili sono rilevanti.
Perché sta esplodendo il fenomeno dei big data?
Perché si stanno moltiplicando le sorgenti di nuove tipologie di dati, non solo di tipo scientifico (come ad esempio le sequenze genomiche, o le rilevazioni sul clima), ma anche di mercato: video e immagini condivise online, post nei social media, ricerche su Internet, e molto altro.
Questi dati consentono virtualmente a qualsiasi azienda di sondare i mercati e fare analisi che solo fino a poco tempo fa erano considerate impensabili.
Per fare questo è necessaria una grande capacità di elaborazione. I big data possono arrivare a centinaia o milioni di Terabyte, e per essere acquisiti, memorizzati, condivisi, analizzati e visualizzati, sono richiesti sistemi di calcolo parallelo ad alte prestazioni.
Tecnologie richieste
- Storage ad alta capacità ed elevati throughput (es. sistemi per Lustre)
- Sistemi per calcolo parallelo (es. nodi multiprocessore con acceleratori GPU)
- Reti ad alta velocità (es. Infiniband)
- Paradigmi di programmazione parallela/distribuita (es. MapReduce, CUDA, OpenCL)
Vuoi saperne di più?
Contattaci!
Possiamo aiutarti per:
- Analisi e progettazione di infrastrutture IT per la gestione di Big Data
- Sviluppo e integrazione di piattaforme software per la gestione di grandi dataset
- Contratti di maintenance e gestione completa dei sistemi
- Training e formazione