Alessandro Rezzani
La realizzazione di un’architettura per la gestione dei big data è il primo passo per la loro gestione e impiego nei sistemi aziendali. Per utilizzare i big data occorre conoscere gli strumenti analitici inclusi nella piattaforma Hadoop, quali MapReduce, HIVE e Pig. Esistono inoltre strumenti che possono essere impiegati sia in congiunzione con Hadoop sia in modo indipendente, come Apache Spark. Oltre ai sistemi di elaborazione e manipolazione dei dati, sono disponibili tecnologie per l’analisi predittiva, come per esempio SparkML, che consentono di ricavare il massimo del valore dai Big Data. Il seminario tratta le tecniche e gli strumenti analitici citati sopra, fornendo al partecipante stimoli e suggestioni su ciascuno di essi.