# Databricks Reviews
**Vendor:** Databricks Inc.  
**Category:** [Sistemi di Elaborazione e Distribuzione dei Big Data](https://www.g2.com/it/categories/big-data-processing-and-distribution)  
**Average Rating:** 4.6/5.0  
**Total Reviews:** 731
## About Databricks
Databricks è l&#39;azienda di Data e AI. Più di 20.000 organizzazioni in tutto il mondo — tra cui adidas, AT&amp;T, Bayer, Block, Mastercard, Rivian, Unilever e oltre il 60% delle aziende Fortune 500 — si affidano a Databricks per costruire e scalare app di dati e AI, analisi e agenti. Con sede a San Francisco e oltre 30 uffici in tutto il mondo, Databricks offre una piattaforma unificata di Data Intelligence che include Agent Bricks, Lakeflow, Lakehouse, Lakebase e Unity Catalog.



## Databricks Pros & Cons
**What users like:**

- Gli utenti apprezzano le **eccezionali funzionalità di intelligenza artificiale e la forte governance dei dati** di Databricks, migliorando la gestione e la sicurezza dei dati. (288 reviews)
- Gli utenti elogiano la **facilità d&#39;uso** di Databricks, apprezzando la sua integrazione senza soluzione di continuità e le capacità di gestione dei dati in tempo reale. (278 reviews)
- Gli utenti apprezzano le **integrazioni senza soluzione di continuità** di Databricks, che consentono una gestione efficiente dei dati e la collaborazione tra piattaforme. (189 reviews)
- Gli utenti apprezzano l&#39; **ambiente collaborativo** in Databricks, migliorando il lavoro di squadra e la comunicazione in tempo reale tra i team di dati. (150 reviews)
- Gli utenti apprezzano le **funzionalità efficaci di gestione dei dati** di Databricks, rendendo la gestione dei dati fluida ed efficiente. (150 reviews)
- Gli utenti apprezzano le **facili integrazioni** di Databricks, che si collegano senza problemi con l&#39;infrastruttura cloud e migliorano la gestione dei dati. (148 reviews)
- Analytics (139 reviews)
- Machine Learning (136 reviews)
- ML Integration (135 reviews)
- Scalability (134 reviews)

**What users dislike:**

- Gli utenti trovano la **ripida curva di apprendimento** di Databricks impegnativa, ostacolando una rapida adozione e facilità d&#39;uso. (112 reviews)
- Gli utenti trovano i **costi elevati** per Databricks, specialmente quando lavorano con grandi volumi di dati. (97 reviews)
- Gli utenti lottano con la **ripida curva di apprendimento** di Databricks, ostacolando l&#39;adozione e la gestione efficace da parte dell&#39;organizzazione. (96 reviews)
- Gli utenti evidenziano **funzionalità mancanti** in Databricks, che influenzano la funzionalità e la velocità di sviluppo, in particolare nell&#39;edizione gratuita. (69 reviews)
- Gli utenti trovano che la **complessità della curva di apprendimento** e le limitazioni di integrazione siano difficili per i nuovi membri del team. (64 reviews)
- Gli utenti affrontano **problemi di interfaccia utente non intuitiva** che portano a errori casuali e complicano l&#39;esperienza per gli utenti non tecnici. (61 reviews)
- Performance Issues (57 reviews)
- Poor UI Design (53 reviews)
- Difficult Learning (51 reviews)
- Complex Setup (45 reviews)

## Databricks Reviews
  ### 1. Databricks: Piattaforma Unificata per l'Elaborazione e l'Analisi dei Dati

**Rating:** 5.0/5.0 stars

**Reviewed by:** Banu Prakash M. | Data Engineer, Mid-Market (51-1000 dip.)

**Reviewed Date:** April 02, 2026

**Cosa ti piace di più di Databricks?**

Mi piace che Databricks porti tutto in un unico posto, rendendo non necessario l'uso di strumenti diversi per l'elaborazione dei dati, l'analisi e il lavoro con le pipeline. Gestisce bene i grandi volumi di dati e non dobbiamo preoccuparci di gestire manualmente i cluster. Inoltre, Databricks gestisce bene la collaborazione e la sperimentazione, rendendo facile provare nuove cose.

**Cosa non ti piace di Databricks?**

Dal mio punto di vista, l'area che può essere migliorata è la gestione dei costi. Se i cluster non vengono monitorati attentamente, i costi possono aumentare più rapidamente del previsto. Un miglioramento che potrebbe aiutare è una maggiore visibilità sui costi a un livello più dettagliato. Anche più avvisi integrati o raccomandazioni quando i costi iniziano ad aumentare inaspettatamente sarebbero utili.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Databricks ci aiuta a gestire grandi set di dati e a costruire pipeline di dati. Semplifica l'elaborazione, la trasformazione e l'analisi dei dati utilizzando Spark e SQL, tutto in un unico posto. Risolve il problema dell'elaborazione lenta dei dati distribuita tra i sistemi, gestendo automaticamente l'infrastruttura e facilitando la collaborazione e la sperimentazione.

  ### 2. Un affidabile cavallo di battaglia per l'ingegneria dei dati e l'analisi

**Rating:** 5.0/5.0 stars

**Reviewed by:** Supriya  M. | Data Engineer, Mid-Market (51-1000 dip.)

**Reviewed Date:** March 31, 2026

**Cosa ti piace di più di Databricks?**

L'approccio della piattaforma unificata è ciò che apprezzo di più. Avere notebook, pipeline di ingegneria dei dati, flussi di lavoro ML e analisi SQL tutti in un unico posto fa risparmiare un sacco di tempo invece di destreggiarsi tra più strumenti. I notebook collaborativi rendono facile condividere il lavoro con i compagni di squadra, e la gestione dei cluster è diventata molto più fluida nel tempo. L'integrazione con Delta Lake è anche un grande vantaggio per mantenere i nostri dati affidabili e coerenti.

**Cosa non ti piace di Databricks?**

Il costo può sfuggire di mano piuttosto rapidamente se non si presta attenzione alle dimensioni del cluster e al tempo di attività. Non è sempre ovvio come ottimizzare la spesa, e il modello di prezzo sembra complesso. La curva di apprendimento per i nuovi membri del team è anche più ripida di quanto vorrei, specialmente per le persone che non sono già familiari con Spark. A volte l'interfaccia utente può sembrare lenta quando si lavora con notebook più grandi, e il debug dei fallimenti dei lavori potrebbe essere più semplice.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Databricks mi aiuta a risolvere i complessi fallimenti delle pipeline ETL e i persistenti problemi di qualità dei dati nell'analisi della catena di approvvigionamento unificando l'elaborazione batch e streaming dai sistemi SAP con Delta Live Tables. Rimuove anche molti dei mal di testa legati alla gestione dell'infrastruttura grazie ai cluster auto-scalabili, così posso concentrarmi sulla scrittura di codice per carichi di lavoro multi-terabyte invece di preoccuparmi costantemente delle dimensioni del cluster.

Per i miei progetti di dati di produzione, Databricks accelera i cicli di sviluppo da settimane a giorni tramite notebook collaborativi e pipeline DLT, consentendo reportistica Power BI più veloce e decisioni dei portatori di interesse. Unity Catalog centralizza la governance tra le fonti Azure e SAP, prevenendo la deriva dello schema che affliggeva i precedenti laghi basati su Hive.

  ### 3. Tutto-in-Uno Potente con Spazio per Chiarezza sui Prezzi

**Rating:** 4.5/5.0 stars

**Reviewed by:** Thoufeeq A. | DevOps Engineer, Mid-Market (51-1000 dip.)

**Reviewed Date:** April 02, 2026

**Cosa ti piace di più di Databricks?**

Mi piace che Databricks sia una potenza tutto-in-uno dove posso svolgere più lavori in un unico posto. È potente per gestire dati da più fonti e averli in un unico UC per gestire i permessi con sicurezza a livello di riga. Apprezzo anche che posso creare esperimenti, eseguire più modelli e selezionare il migliore dai log, cosa che era difficile su altre piattaforme. Una volta imparata la configurazione, è stato facile e comodo lavorarci.

**Cosa non ti piace di Databricks?**

Trovo difficile usare la calcolatrice per determinare i prezzi degli endpoint di servizio CPU perché la documentazione non lo spiega esplicitamente. Menziona solo che 1 concorrenza equivale a 1 DBU sulla pagina di Azure, il che non è chiaro. Il calcolatore dei prezzi ha un'unica opzione per gli endpoint di servizio, etichettata come media con quattro DBU, ma manca di opzioni separate per GPU o CPU e la loro concorrenza, rendendo difficile capire come funzioni correttamente. Inizialmente, ho anche trovato molto difficile imparare Databricks e gestire le distribuzioni degli spazi di lavoro, anche se col tempo è diventato più facile.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Databricks consolida più strumenti in un'unica piattaforma, rendendola potente e conveniente. Posso gestire i permessi con la sicurezza a livello di riga ed eseguire facilmente esperimenti per selezionare i migliori modelli, tutto in un unico posto.

**Official Response from Janelle Glover:**

> Grazie per aver condiviso la tua esperienza positiva con Databricks. Comprendiamo le tue preoccupazioni riguardo al calcolatore dei prezzi e prenderemo in considerazione il tuo feedback per migliorare la chiarezza della nostra documentazione.

  ### 4. Databricks Lakehouse Powerhouse con Unity Catalog e Fast Photon SQL

**Rating:** 4.0/5.0 stars

**Reviewed by:** Vidhyadar R. | Data Engineer, Enterprise (> 1000 dip.)

**Reviewed Date:** April 01, 2026

**Cosa ti piace di più di Databricks?**

Apprezzo molto come la piattaforma unisce i data lake e i data warehouse in un unico luogo. Rende la gestione dei dati molto più semplice, e le prestazioni SQL sono molto veloci grazie al motore Photon. Mi piacciono anche i notebook collaborativi perché mi permettono di lavorare con SQL e Python senza problemi in un unico ambiente.

**Cosa non ti piace di Databricks?**

Il costo può essere elevato e il sistema di fatturazione DBU è piuttosto complesso da monitorare. Ho anche scoperto che c'è una curva di apprendimento significativa quando si tratta di Spark e della configurazione dei cluster. Per compiti più piccoli e veloci, il tempo di configurazione e il sovraccarico tecnico possono a volte sembrare un po' eccessivi.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Risolve il problema di avere dati sparsi ovunque. Adoro poter passare da SQL a Python nello stesso posto, e la velocità di elaborazione è eccezionale. È stato un punto di svolta per costruire rapidamente i nostri modelli finanziari senza il solito ritardo.

  ### 5. Ingegneria dei Dati, Scienza e Analisi Unificate in un'unica Piattaforma Collaborativa

**Rating:** 4.5/5.0 stars

**Reviewed by:** Sivabalan A. | Data Engineer, Mid-Market (51-1000 dip.)

**Reviewed Date:** April 02, 2026

**Cosa ti piace di più di Databricks?**

Ciò che apprezzo di più di Databricks è la sua capacità di unificare l'ingegneria dei dati, la scienza dei dati e l'analisi su un'unica piattaforma. L'ambiente collaborativo—soprattutto i notebook e i flussi di lavoro integrati—rende molto più facile per i team con diversi livelli di competenza lavorare insieme senza continui cambi di contesto.

Un altro punto di forza è l'integrazione con strumenti popolari e servizi cloud ampiamente utilizzati sul mercato oggi, il che facilita lo spostamento dei dati tra di essi. Le funzionalità di monitoraggio delle prestazioni e di pianificazione dei lavori aiutano a mantenere la visibilità sui pipeline, e il supporto di Delta Lake per una gestione affidabile dei dati è stato anche molto utile.

**Cosa non ti piace di Databricks?**

La gestione dei costi è un'area che potrebbe essere migliorata. Sebbene Databricks offra opzioni di autoscaling e cluster flessibili, è facile che l'uso delle risorse aumenti inaspettatamente, specialmente con grandi set di dati e lavori di lunga durata. Mantenere i costi prevedibili richiede spesso un'attenta supervisione e una solida comprensione del modello di prezzo della piattaforma.

Inoltre, alcune delle funzionalità più avanzate, come i controlli di accesso dettagliati e l'orchestrazione di lavori più complessi, possono sembrare meno intuitive. La documentazione è ampia, ma occasionalmente lascia lacune che finiscono per richiedere tentativi ed errori.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Databricks affronta diverse sfide chiave nei flussi di lavoro dei dati moderni, in particolare riguardo alla scalabilità, all'affidabilità dei dati e all'analisi collaborativa. Uno dei principali problemi che risolve è la gestione e l'elaborazione di dataset su larga scala in modo efficiente. Sfruttando il framework di calcolo distribuito di Apache Spark, Databricks consente pipeline ETL parallelizzate e trasformazioni di dati su larga scala che sarebbero impraticabili su infrastrutture tradizionali.

Un'altra sfida è garantire la coerenza e l'affidabilità dei dati attraverso le pipeline. Con Delta Lake, Databricks fornisce uno storage conforme a ACID, tabelle versionate e applicazione dello schema, il che riduce gli errori nei dati e semplifica la governance dei dati. Questo è particolarmente vantaggioso quando più team lavorano su diverse fasi delle pipeline di dati contemporaneamente.

Databricks aiuta anche a risolvere il problema dei flussi di lavoro frammentati per data scientist e ingegneri. Il suo ambiente unificato supporta più linguaggi (Python, SQL, R, Scala) e include l'apprendimento automatico integrato con MLFlow, rendendo più facile collaborare e passare dalla preparazione dei dati all'analisi e all'apprendimento automatico in un unico posto.

**Official Response from Janelle Glover:**

> È fantastico sapere come Databricks stia aiutando a risolvere le sfide di scalabilità, affidabilità dei dati e analisi collaborative per il tuo team. Apprezziamo il tuo feedback sulla gestione dei costi e sull'usabilità delle funzionalità avanzate. Stiamo lavorando continuamente per migliorare la trasparenza dei prezzi e migliorare l'esperienza utente per tutte le nostre funzionalità.

  ### 6. Piattaforma All-in-One che ci aiuta a iterare rapidamente e a distribuire con fiducia

**Rating:** 5.0/5.0 stars

**Reviewed by:** Vijayaramuprawin V. | Sr. Cloud and DevOps Engineer, Mid-Market (51-1000 dip.)

**Reviewed Date:** April 01, 2026

**Cosa ti piace di più di Databricks?**

Utilizziamo Databricks quotidianamente come nostra piattaforma dati principale per costruire ed eseguire pipeline attraverso un'architettura a medaglione, dall'estrazione dei dati da SAP e Arkieva fino ai dataset pronti per la reportistica. L'esperienza con i notebook è intuitiva, il set di funzionalità è enorme e gli Asset Bundles hanno reso la nostra storia di CI/CD con Azure DevOps davvero solida. L'integrazione con i servizi cloud è stata fluida, e una volta impostate le cose, funzionano semplicemente. La curva di apprendimento può essere ripida per i nuovi membri del team, specialmente per quanto riguarda Unity Catalog e DABs, e i costi possono aumentare se non si tiene sotto controllo la configurazione dei cluster. Il supporto è decente e la documentazione è abbastanza forte da non dover aprire spesso un ticket. Nel complesso, è una piattaforma potente che fa molto sotto un unico tetto, ed è difficile immaginare il nostro flusso di lavoro di ingegneria dei dati senza di essa.

**Cosa non ti piace di Databricks?**

Il costo può aumentare rapidamente se non si presta attenzione alle dimensioni del cluster e alle configurazioni dei lavori, quindi ci vuole un po' di impegno per mantenere tutto ottimizzato. Inoltre, la curva di apprendimento per i nuovi membri del team può essere ripida, specialmente per quanto riguarda elementi come i pacchetti di asset, il catalogo Unity e la corretta configurazione dei componenti CI/CD.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Databricks sta risolvendo il problema dei dati frammentati sparsi su più sistemi come SAP e Arkieva fornendoci un'unica piattaforma unificata per estrarre, trasformare e servire tutto. Ciò significa che i nostri team aziendali ottengono dati puliti, affidabili e pronti per i report senza dover gestire una serie di strumenti separati, e possiamo distribuire e gestire tutto in modo coerente attraverso gli ambienti con fiducia.

**Official Response from Janelle Glover:**

> Siamo lieti di sapere che Databricks è stato fondamentale per semplificare il tuo flusso di lavoro di ingegneria dei dati e fornire una piattaforma potente per le tue esigenze. Apprezziamo il tuo feedback sulla curva di apprendimento e sulle considerazioni sui costi, e stiamo lavorando continuamente per migliorare in questi aspetti.

  ### 7. Flussi di lavoro dati semplificati e collaborativi con prestazioni potenti

**Rating:** 5.0/5.0 stars

**Reviewed by:** Dharun T. | Senior Data Engineer, Mid-Market (51-1000 dip.)

**Reviewed Date:** April 01, 2026

**Cosa ti piace di più di Databricks?**

Quello che mi piace di più di Databricks è come semplifica l'intero flusso di lavoro dei dati integrando elaborazione, analisi e machine learning in un'unica piattaforma. L'ambiente collaborativo dei notebook rende facile condividere codice, contesto e ragionamenti con i membri del team, aiutando tutti a rimanere allineati. Inoltre, offre ottime prestazioni su grandi set di dati mentre astrae la maggior parte della gestione dei cluster, permettendomi di concentrarmi sulla risoluzione del problema piuttosto che sulla gestione dell'infrastruttura. Inoltre, il controllo centralizzato degli accessi e la chiara visibilità sull'uso dei dati supportano una governance responsabile dei dati, offrendo un solido equilibrio tra potenza e facilità d'uso.

**Cosa non ti piace di Databricks?**

Databricks ha alcuni svantaggi, anche se molti di essi sembrano più compromessi che veri e propri aspetti negativi. La mia preoccupazione principale è il costo: se i cluster non sono gestiti con attenzione, le spese possono aumentare rapidamente, anche se la piattaforma può scalare molto efficacemente quando è configurata correttamente. C'è anche una vera curva di apprendimento con Spark e i concetti di calcolo distribuito, e il debug o l'ottimizzazione delle prestazioni possono essere più complessi rispetto a strumenti più semplici. Infine, poiché è un servizio gestito, si rinuncia a un certo controllo a basso livello rispetto ai sistemi auto-ospitati, ma il vantaggio è che si elimina gran parte del lavoro operativo e infrastrutturale.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Poiché il mio cliente ha bisogno di codice sicuro e riutilizzabile, Databricks ci aiuta a scrivere Python in modo efficiente applicando i principi OOP e i design pattern. Inoltre, rende semplice estendere la funzionalità nel tempo e costruire codice personalizzato che interagisce con API e database.

**Official Response from Janelle Glover:**

> Siamo lieti di sapere che trovi Databricks una piattaforma potente e snella per flussi di lavoro collaborativi sui dati. Comprendiamo le preoccupazioni riguardo alla gestione dei costi e alla curva di apprendimento associata ai concetti di calcolo distribuito. Lavoriamo continuamente per migliorare la nostra piattaforma e fornire risorse per aiutare gli utenti a ottimizzare il loro utilizzo e superare le sfide.

  ### 8. Databricks: Soluzione Completa per Dati e Analisi

**Rating:** 5.0/5.0 stars

**Reviewed by:** FABIN P. | Senior Data Engineer, Mid-Market (51-1000 dip.)

**Reviewed Date:** April 01, 2026

**Cosa ti piace di più di Databricks?**

Quello che mi piace di più di Databricks è che riunisce tutto in un unico posto, rendendo facile lavorare sui dati, costruire modelli e gestire i flussi di lavoro. Aiuta i team a collaborare facilmente in tempo reale. Funziona anche molto velocemente con grandi quantità di dati utilizzando Apache Spark, e funzionalità come l'automazione e Delta Lake rendono la gestione dei big data molto più semplice.

**Cosa non ti piace di Databricks?**

Una cosa che non mi piace di Databricks è che può essere costoso, specialmente per carichi di lavoro grandi. A volte l'interfaccia e la configurazione possono sembrare complesse per i principianti. Inoltre, gestire i cluster e le configurazioni può richiedere un certo sforzo se non si ha molta familiarità con esso.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Databricks risolve il problema di gestire grandi quantità di dati in modo efficiente. Porta l'ingegneria dei dati, l'analisi e il machine learning in un'unica piattaforma. Questo elimina la necessità di utilizzare più strumenti. Aiuta a elaborare i dati più velocemente utilizzando Apache Spark. Rende più facile la collaborazione per i team. Semplifica la costruzione e la gestione delle pipeline di dati. Migliora l'affidabilità dei dati con funzionalità come Delta Lake. Riduce il lavoro manuale attraverso l'automazione. Risparmia tempo e sforzi nelle attività quotidiane. In generale, mi aiuta a lavorare più velocemente e in modo più efficiente con i dati.

**Official Response from Janelle Glover:**

> Siamo lieti di sapere che Databricks è stato fondamentale per semplificare il tuo flusso di lavoro di ingegneria dei dati e fornire una piattaforma potente per le tue esigenze. Apprezziamo il tuo feedback sulla curva di apprendimento e sulle considerazioni sui costi, e stiamo lavorando continuamente per migliorare in questi aspetti.

  ### 9. Dal Caos di Hive al Catalogo di Unità - Vale Ogni DBU

**Rating:** 5.0/5.0 stars

**Reviewed by:** Balakumaran R. | Data Team Lead, Enterprise (> 1000 dip.)

**Reviewed Date:** March 31, 2026

**Cosa ti piace di più di Databricks?**

Unity Catalog è stato il singolo valore aggiunto più grande per la nostra migrazione aziendale. Siamo passati da un'architettura Hive Metastore a Unity Catalog e abbiamo ottenuto governance centralizzata, tracciamento della lineage e controllo degli accessi dettagliato su tutti i nostri asset di dati senza dover integrare strumenti di terze parti. Per un'organizzazione multi-dominio (finanza, produzione, catena di approvvigionamento, approvvigionamento), avere un unico catalogo che applica una denominazione e permessi coerenti attraverso i livelli bronzo, argento, oro e platino ci ha risparmiato settimane di lavoro manuale sulle policy.

UI/UX: L'esperienza del notebook con Spark SQL e PySpark inline, combinata con il browser dei file del workspace, rende semplice per il nostro team sviluppare e testare trasformazioni in modo iterativo. L'editor SQL per query ad-hoc contro le tabelle di Unity Catalog è pulito e reattivo.

Integrazioni: Il supporto nativo per Delta Lake significa che non gestiamo conversioni di formato. L'integrazione con Azure Key Vault tramite secret scopes (dbutils.secrets.get) mantiene le credenziali fuori dal codice. L'integrazione ADF per l'orchestrazione nel nostro ambiente V1 è stata senza problemi, e i Databricks Asset Bundles (DAB) per il deployment V2 ci offrono un percorso CI/CD pulito con configurazioni databricks.yml mirate a dev/qa/prod senza scripting personalizzato.

Prestazioni: Passare a CTE rispetto a viste temporanee nei nostri notebook Gold ha ridotto notevolmente la pressione sulla memoria del cluster. La possibilità di dimensionare correttamente i cluster per ambiente (1 worker per dev, 3 per produzione) con nodi Standard_D4ds_v5 mantiene i costi prevedibili pur mantenendo le prestazioni per i nostri carichi di lavoro ETL batch.

Prezzi/ROI: Il modello di calcolo pay-as-you-go abbinato a cluster in modalità di sicurezza per singolo utente significa che non stiamo sovrapponendo le risorse. Consolidare il nostro livello ETL, di governance e di BI in un'unica piattaforma ha eliminato le licenze per strumenti separati di catalogazione, orchestrazione e qualità dei dati.

AI/Intelligenza (Genie): Genie Spaces è stata una vittoria inaspettata. I nostri analisti aziendali in finanza e catena di approvvigionamento possono porre domande in linguaggio naturale contro tabelle Gold/Platinum curate senza scrivere SQL. Ha ridotto il numero di richieste di report ad-hoc che arrivano al team dei dati, offrendo agli utenti di dominio un percorso self-service che rispetta comunque i permessi di Unity Catalog.

Supporto/Onboarding: La documentazione è completa e l'approccio basato sulle competenze per l'apprendimento (bundle, Unity Catalog, lavori, SQL) si adatta bene a come il nostro team lavora effettivamente. L'onboarding di nuovi ingegneri all'architettura V2 ha richiesto circa la metà del tempo rispetto a V1 perché le convenzioni della piattaforma (architettura medaglione, asset bundle, denominazione del catalogo) sono ben documentate e coerenti.

**Cosa non ti piace di Databricks?**

UI/UX: L'editor del notebook sembra ancora indietro rispetto agli IDE dedicati. Nessuna ricerca nativa su più file, supporto limitato per il refactoring e l'interfaccia utente dell'integrazione git è goffa per i team che gestiscono dozzine di notebook attraverso pacchetti di flussi di lavoro. Abbiamo finito per fare tutto lo sviluppo reale in VS Code e trattare lo spazio di lavoro Databricks come un obiettivo di distribuzione, il che aggiunge attrito. Il browser dei file dello spazio di lavoro non gestisce bene le strutture delle cartelle quando hai più di 50 notebook organizzati per dominio: non ci sono filtri, tag o preferiti.

Integrazioni: I Databricks Asset Bundles (DAB) sono un passo avanti, ma la documentazione presenta lacune per distribuzioni complesse multi-bundle. Gestiamo un bundle Global_Utilities condiviso da cui dipendono altri bundle di flussi di lavoro, e far funzionare in modo affidabile i riferimenti tra bundle attraverso gli obiettivi dev/qa/prod ha richiesto molti tentativi ed errori. L'integrazione ADF-to-Databricks funziona, ma il debug delle esecuzioni di pipeline fallite significa saltare tra l'interfaccia di monitoraggio ADF e le esecuzioni di job Databricks senza una vista unificata. Una stretta integrazione tra orchestrazione e monitoraggio del calcolo farebbe risparmiare ore di risoluzione dei problemi.

Prestazioni: I tempi di avvio a freddo dei cluster rimangono un punto dolente per i flussi di lavoro di sviluppo. Avviare un cluster a nodo singolo Standard_D4ds_v5 richiede 4-7 minuti, il che interrompe il flusso quando si sta iterando sulla logica del notebook. Il calcolo serverless aiuta ma non è ancora disponibile per tutti i tipi di carico di lavoro, e il premio di costo è difficile da giustificare per ambienti di sviluppo/test.

Prezzi/ROI: Il modello di prezzo DBU è opaco per la pianificazione della capacità. Stimare i costi mensili per un progetto con oltre 30 job programmati, cluster di sviluppo interattivi e query SQL warehouse richiede la costruzione di fogli di calcolo personalizzati perché gli strumenti di gestione dei costi integrati non forniscono una previsione chiara per flusso di lavoro o dominio. Siamo stati sorpresi da picchi di costo da job che sono durati più del previsto senza un modo semplice per impostare avvisi di budget per job.

Supporto/Onboarding: I tempi di risposta del supporto aziendale sono incoerenti. Problemi critici con i permessi di Unity Catalog durante la nostra migrazione hanno richiesto 3-5 giorni lavorativi per la triage iniziale, il che ha bloccato la nostra timeline di distribuzione. I forum della comunità sono utili per modelli comuni, ma per i casi limite di Unity Catalog (lineage cross-catalog, eredità complessa dei permessi), la base di conoscenza è scarsa.

AI/Intelligenza: Genie è promettente ma ancora grezzo per l'uso in produzione. Ha difficoltà con join su più di 3-4 tabelle, a volte genera SQL errato contro il nostro livello Gold, e non c'è un modo semplice per curare o correggere le sue risposte per migliorare l'accuratezza nel tempo. I nostri utenti aziendali si sono entusiasmati, l'hanno provato, hanno ottenuto risposte sbagliate su domande moderatamente complesse e hanno perso fiducia. Un ciclo di feedback in cui gli esperti di dominio possono segnalare e correggere gli output di Genie lo renderebbe veramente pronto per la produzione.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Frammentazione della Governance dei Dati → Catalogo Unificato Abbiamo avuto difficoltà con un ambiente Hive Metastore dove la proprietà delle tabelle, il controllo degli accessi e la tracciabilità erano gestiti attraverso un insieme di documentazione manuale e script personalizzati. Dopo aver implementato Unity Catalog, ora abbiamo una governance centralizzata su 4 livelli di catalogo (bronzo, argento, oro, platino) che coprono 6 domini aziendali. Ciò che richiedeva un data steward a tempo pieno per essere tracciato manualmente è ora applicato automaticamente attraverso permessi a livello di catalogo e tracciabilità. Questo ha ridotto il nostro tempo di provisioning degli accessi da giorni a meno di un'ora per richiesta.

Logica ETL Isolata → Architettura Medallion Standardizzata Prima di Databricks, i nostri pipeline ETL erano incoerenti — team diversi scrivevano trasformazioni in modo diverso, senza utilità o modelli condivisi. Abbiamo costruito un framework standardizzato (Batch_Utilities.py) con funzioni riutilizzabili per la validazione degli schemi, operazioni di merge, controlli di qualità dei dati e gestione delle colonne di audit. Ogni notebook in tutti i domini ora segue la stessa struttura a 7 celle. Questo ha ridotto il tempo di sviluppo di nuovi notebook da 2-3 giorni a circa 4 ore, e l'onboarding di un nuovo sviluppatore al modello richiede un solo pomeriggio invece di una settimana.

Fallimenti Costosi di Aggiornamento dei Report → Orchestrazione Affidabile dei Pipeline Avevamo problemi ricorrenti con i report Power BI che estraevano dati obsoleti o incompleti perché i lavori a monte fallivano silenziosamente. Con Databricks Jobs e il tracciamento dei pipeline basato su metadati (stato del pipeline, timestamp di inizio/fine registrati per esecuzione), ora intercettiamo i fallimenti al livello di trasformazione prima che si propaghino ai report. I problemi di freschezza dei dati dei report sono diminuiti di circa l'80%, e il nostro team finanziario ha smesso di programmare riunioni di "verifica dei dati" che consumavano 3-4 ore a settimana.

Caos di Distribuzione Multi-Ambiente → Pacchetti di Asset Distribuire notebook tra dev, QA e produzione comportava copie manuali di file e modifiche di configurazione specifiche per l'ambiente — soggetto a errori e lento. I Pacchetti di Asset di Databricks ci hanno fornito configurazioni databricks.yml dichiarative con sostituzione delle variabili per target. Una distribuzione che richiedeva 45 minuti di passaggi manuali ora viene eseguita in meno di 5 minuti tramite CLI. Distribuiamo con fiducia perché la stessa definizione del pacchetto è convalidata prima di arrivare in produzione.

Gap di Analisi Self-Service → Genie + Livello Platinum Gli analisti aziendali nella catena di approvvigionamento e nella finanza erano completamente dipendenti dal team dei dati per qualsiasi analisi ad hoc. Costruendo tabelle Platinum denormalizzate ottimizzate per il reporting e esponendole tramite Genie Spaces, abbiamo abilitato le query self-service in linguaggio naturale. L'adozione iniziale ha ridotto le richieste di report ad hoc al team dei dati di circa il 30%, liberando capacità ingegneristica per lo sviluppo di nuove funzionalità.

Visibilità dei Costi → Calcolo Dimensionato Correttamente Stavamo sovra-provisionando i cluster perché non avevamo una chiara visione dell'utilizzo effettivo. Standardizzando sui nodi Standard_D4ds_v5 con conteggi di lavoratori specifici per ambiente (1 per dev/QA, 3 per produzione) e modalità di sicurezza per singolo utente, abbiamo ridotto la nostra spesa mensile per il calcolo di circa il 25% rispetto al modello di cluster condiviso che gestivamo in V1.

**Official Response from Janelle Glover:**

> Apprezziamo il tuo feedback dettagliato sulla tua esperienza con Databricks. È fantastico sapere che Unity Catalog, UI/UX, integrazioni, prestazioni, Genie e supporto/onboarding hanno avuto un impatto positivo sulla migrazione della tua impresa. Comprendiamo le aree di miglioramento che hai menzionato e le prenderemo in considerazione per futuri miglioramenti.

  ### 10. Databricks: Piattaforma Intuitiva e Unificata con Integrazioni Senza Soluzione di Continuità e Supporto Rapido

**Rating:** 5.0/5.0 stars

**Reviewed by:** Sabareeswar K. | Data Engineer, Enterprise (> 1000 dip.)

**Reviewed Date:** April 01, 2026

**Cosa ti piace di più di Databricks?**

Come ingegnere dei dati, Databricks è diventata la mia piattaforma di riferimento per il lavoro sui dati end-to-end. La facilità d'uso è eccezionale: i notebook, le Delta Live Tables e Genie hanno tutte interfacce intuitive che riducono significativamente il tempo di apprendimento. L'implementazione è stata fluida grazie all'eccellente documentazione e al supporto clienti reattivo che risolve effettivamente i problemi rapidamente. Lo uso quotidianamente, e il numero di funzionalità, da Unity Catalog a AI/BI Genie, continua a crescere. L'integrazione con l'archiviazione cloud, gli strumenti BI e i framework ML è senza soluzione di continuità, rendendola una vera piattaforma unificata.

**Cosa non ti piace di Databricks?**

Una sfida è la mancanza di trasparenza dei costi a livello di lavoro granulare; è difficile individuare esattamente quale pipeline o notebook stia aumentando il consumo di DBU senza investire in un monitoraggio personalizzato. I cluster con scalabilità automatica, sebbene potenti, possono far lievitare i costi durante la notte se non configurati attentamente con limiti adeguati. Inoltre, i livelli del magazzino SQL possono essere confusi da scegliere in anticipo, rendendo difficile la pianificazione del budget per i team. Un cruscotto di allocazione dei costi integrato per lavoro o utente sarebbe un enorme miglioramento per la gestione quotidiana dei costi.

**Quali problemi sta risolvendo Databricks e come ti sta beneficiando?**

Databricks ha eliminato i silos tra i nostri team di ingegneria dei dati, analisi e ML. In precedenza, gestivamo più strumenti per l'ingestione, la trasformazione e la reportistica. Ora tutto si trova in un unico lakehouse. Genie, in particolare, è stato un cambiamento radicale: gli stakeholder aziendali possono porre domande in linguaggio naturale direttamente sui nostri dati senza scrivere SQL, il che riduce drasticamente i colli di bottiglia delle richieste ad-hoc per il nostro team di ingegneria. Il processo decisionale è più veloce, i dati sono più democratizzati e abbiamo ridotto significativamente i costi generali della nostra pipeline di reportistica.

**Official Response from Janelle Glover:**

> È fantastico sapere che Databricks ha aiutato a eliminare i silos tra i tuoi team di ingegneria dei dati, analisi e ML. Siamo lieti che Genie sia stato un punto di svolta per i tuoi stakeholder aziendali. Comprendiamo anche le sfide che hai menzionato riguardo alla trasparenza dei costi e ai cluster di auto-scaling. Stiamo lavorando continuamente per migliorare la nostra piattaforma e prenderemo in considerazione i tuoi suggerimenti per futuri miglioramenti.


## Databricks Discussions
  - [Cos&#39;è Lakehouse in Databricks?](https://www.g2.com/it/discussions/what-is-lakehouse-in-databricks) - 4 comments, 2 upvotes
  - [Quali sono le caratteristiche di Databricks?](https://www.g2.com/it/discussions/what-are-the-features-of-databricks) - 4 comments, 2 upvotes
  - [Cosa fa il software Databricks?](https://www.g2.com/it/discussions/what-does-databricks-software-do) - 3 comments
  - [Che cos&#39;è la piattaforma di analisi unificata di Databricks?](https://www.g2.com/it/discussions/what-is-databricks-unified-analytics-platform) - 3 comments


## Databricks Integrations
  - [Agentforce 360 Platform (formerly Salesforce Platform)](https://www.g2.com/it/products/agentforce-360-platform-formerly-salesforce-platform/reviews)
  - [Agentforce Sales (formerly Salesforce Sales Cloud)](https://www.g2.com/it/products/agentforce-sales-formerly-salesforce-sales-cloud/reviews)
  - [Alation](https://www.g2.com/it/products/alation/reviews)
  - [Amazon EC2](https://www.g2.com/it/products/amazon-ec2/reviews)
  - [Amazon Relational Database Service (RDS)](https://www.g2.com/it/products/amazon-relational-database-service-rds/reviews)
  - [Anaplan](https://www.g2.com/it/products/anaplan/reviews)
  - [Anomalo](https://www.g2.com/it/products/anomalo/reviews)
  - [Apache Kafka](https://www.g2.com/it/products/apache-kafka/reviews)
  - [Apache NiFi](https://www.g2.com/it/products/apache-nifi/reviews)
  - [Atlan](https://www.g2.com/it/products/atlan/reviews)
  - [AWS CloudFormation](https://www.g2.com/it/products/aws-aws-cloudformation/reviews)
  - [AWS Glue](https://www.g2.com/it/products/aws-glue/reviews)
  - [AWS Lambda](https://www.g2.com/it/products/aws-lambda/reviews)
  - [Azure Blob Storage](https://www.g2.com/it/products/azure-blob-storage/reviews)
  - [Azure Databricks](https://www.g2.com/it/products/azure-databricks/reviews)
  - [Azure Data Factory](https://www.g2.com/it/products/azure-data-factory/reviews)
  - [Azure Data Lake Store](https://www.g2.com/it/products/azure-data-lake-store/reviews)
  - [Azure Functions](https://www.g2.com/it/products/azure-functions/reviews)
  - [Azure Logic Apps](https://www.g2.com/it/products/azure-logic-apps/reviews)
  - [Azure OpenAI Service](https://www.g2.com/it/products/azure-openai-service/reviews)
  - [Azure Pipelines](https://www.g2.com/it/products/azure-pipelines/reviews)
  - [Azure Portal](https://www.g2.com/it/products/azure-portal/reviews)
  - [Azure SQL Database](https://www.g2.com/it/products/azure-sql-database/reviews)
  - [Claude Code](https://www.g2.com/it/products/anthropic-claude-code/reviews)
  - [Confluent](https://www.g2.com/it/products/confluent/reviews)
  - [Customer.io](https://www.g2.com/it/products/customer-io/reviews)
  - [data.world](https://www.g2.com/it/products/data-world/reviews)
  - [DAT iQ](https://www.g2.com/it/products/dat-iq/reviews)
  - [DigitalOcean](https://www.g2.com/it/products/digitalocean/reviews)
  - [Fivetran](https://www.g2.com/it/products/fivetran/reviews)
  - [GEN TDS](https://www.g2.com/it/products/gen-tds/reviews)
  - [Git](https://www.g2.com/it/products/git/reviews)
  - [Google Analytics](https://www.g2.com/it/products/google-analytics/reviews)
  - [Google Cloud Run](https://www.g2.com/it/products/google-cloud-run/reviews)
  - [HubSpot Marketing Hub](https://www.g2.com/it/products/hubspot-marketing-hub/reviews)
  - [Immuta](https://www.g2.com/it/products/immuta/reviews)
  - [Informatica Data Quality](https://www.g2.com/it/products/informatica-informatica-data-quality/reviews)
  - [JD Edwards World](https://www.g2.com/it/products/jd-edwards-world/reviews)
  - [Microsoft Copilot Studio](https://www.g2.com/it/products/microsoft-microsoft-copilot-studio/reviews)
  - [Microsoft Fabric](https://www.g2.com/it/products/microsoft-fabric/reviews)
  - [Microsoft Power Apps](https://www.g2.com/it/products/microsoft-power-apps/reviews)
  - [Microsoft Power Automate](https://www.g2.com/it/products/microsoft-power-automate/reviews)
  - [Microsoft Power BI](https://www.g2.com/it/products/microsoft-microsoft-power-bi/reviews)
  - [Microsoft SharePoint](https://www.g2.com/it/products/microsoft-sharepoint/reviews)
  - [Microsoft SQL Server](https://www.g2.com/it/products/microsoft-sql-server/reviews)
  - [Microsoft Teams](https://www.g2.com/it/products/microsoft-teams/reviews)
  - [Monte Carlo](https://www.g2.com/it/products/monte-carlo/reviews)
  - [MySQL](https://www.g2.com/it/products/mysql/reviews)
  - [ObjectWay SpA](https://www.g2.com/it/products/objectway-spa/reviews)
  - [Oracle Database](https://www.g2.com/it/products/oracle-database/reviews)
  - [Pega Platform](https://www.g2.com/it/products/pega-platform/reviews)
  - [PostgreSQL](https://www.g2.com/it/products/postgresql/reviews)
  - [Power BI Portal](https://www.g2.com/it/products/power-bi-portal/reviews)
  - [Qualtrics Customer Experience](https://www.g2.com/it/products/qualtrics-customer-experience/reviews)
  - [React Native](https://www.g2.com/it/products/react-native/reviews)
  - [Salesforce Agentforce](https://www.g2.com/it/products/salesforce-agentforce/reviews)
  - [SAP Ariba](https://www.g2.com/it/products/sap-ariba/reviews)
  - [SAP ECC](https://www.g2.com/it/products/sap-ecc/reviews)
  - [SAS Viya](https://www.g2.com/it/products/sas-sas-viya/reviews)
  - [ServiceNow IT Service Management](https://www.g2.com/it/products/servicenow-it-service-management/reviews)
  - [Sigma](https://www.g2.com/it/products/sigma-computing-sigma/reviews)
  - [Sisense](https://www.g2.com/it/products/sisense/reviews)
  - [SnapLogic Intelligent Integration Platform (IIP)](https://www.g2.com/it/products/snaplogic-intelligent-integration-platform-iip/reviews)
  - [Snowflake](https://www.g2.com/it/products/snowflake/reviews)
  - [Spark](https://www.g2.com/it/products/apache-spark/reviews)
  - [Spark](https://www.g2.com/it/products/openclassrooms-spark/reviews)
  - [Spark SQL](https://www.g2.com/it/products/spark-sql/reviews)
  - [SplashBI](https://www.g2.com/it/products/splashbi/reviews)
  - [Spotfire Analytics](https://www.g2.com/it/products/spotfire-analytics/reviews)
  - [Tableau](https://www.g2.com/it/products/tableau/reviews)
  - [ThoughtSpot](https://www.g2.com/it/products/thoughtspot/reviews)
  - [Visual Studio Code](https://www.g2.com/it/products/visual-studio-code/reviews)
  - [Workday HCM](https://www.g2.com/it/products/workday-hcm/reviews)
  - [Zendesk Sunshine](https://www.g2.com/it/products/zendesk-sunshine/reviews)

## Databricks Features
**Rapporti**
- Interfaccia dei Rapporti
- Passaggi per rispondere
- Grafici e Diagrammi
- Schede di valutazione
- Cruscotti

**Amministrazione**
- Modellazione dei dati
- Raccomandazioni
- Gestione del flusso di lavoro
- Dashboard e Visualizzazioni

**Gestione**
- Segnalazione
- Revisione contabile

**Distribuzione**
- Flessibilità linguistica
- Flessibilità del Framework
- Versionamento
- Facilità di distribuzione
- Scalabilità

**Sistema**
- Ingestione e Manipolazione dei Dati

**Preparazione dei dati**
- Connettori
- Governance dei Dati

**Gestione dei dati**
- Integrazione dei dati
- Compressione dei dati
- Qualità dei dati
- Analisi dei dati integrate
- Apprendimento automatico in-database
- Analisi del Data Lake

**Gestione**
- Dizionario dei dati
- Replica dei dati
- Linguaggio di interrogazione
- Modellazione dei dati
- Analisi delle prestazioni

**Gestione**
- Glossario Aziendale
- Scoperta dei dati
- Profilazione dei dati
- Reportistica e Visualizzazione
- Tracciabilità dei dati

**Distribuzione**
- Flessibilità linguistica
- Flessibilità del Framework
- Versionamento
- Facilità di distribuzione
- Scalabilità

**Gestione dei dati**
- Integrazione dei dati
- Metadati
- Self-service
- Flussi di lavoro automatizzati

**Scalabilità e Prestazioni - Infrastruttura di Intelligenza Artificiale Generativa**
- Alta Disponibilità AI
- Scalabilità dell'addestramento dei modelli di intelligenza artificiale
- Velocità di inferenza dell'IA

**Personalizzazione - Costruttori di Agenti AI**
- Configurazione del linguaggio naturale
- Personalizzazione del tono
- Parapetti di Sicurezza

**Piattaforme DataOps - AI Agente**
- Esecuzione Autonoma dei Compiti
- Pianificazione a più fasi
- Integrazione tra sistemi
- Apprendimento Adattivo
- Prendere decisioni

**Gestione del Traffico e Prestazioni - Gateway AI**
- Limitazione della velocità consapevole del token
- Caching Semantico
- Instradamento multi-modello e fallback

**Sviluppo del Modello**
- Supporto Linguistico
- Trascina e Rilascia
- Algoritmi Pre-Costruiti
- Addestramento del modello

**Database**
- Raccolta dati in tempo reale
- Distribuzione dei dati
- Lago di Dati

**Trasformazione dei dati**
- Analisi in tempo reale
- Interrogazione dei dati

**Conformità**
- Conformità ai Dati Sensibili
- Formazione e Linee Guida
- Applicazione della politica
- Monitoraggio della conformità

**Funzionalità**
- Estrazione
- Trasformazione
- Caricamento
- Automazione
- Scalabilità

**Gestione**
- Catalogazione
- Monitoraggio
- Governare
- Registro Modelli

**Sviluppo del modello**
- Ingegneria delle caratteristiche

**Modellazione e fusione dei dati**
- Interrogazione dei dati
- Filtraggio dei dati
- Fusione dei dati

**Integrazione**
- Integrazione AI/ML
- Integrazione dello strumento BI
- Integrazione del data lake

**Manutenzione**
- Migrazione dei dati
- Backup e Recupero
- Ambiente multiutente

**Sicurezza**
- Controllo Accessi
- Gestione dei Ruoli
- Gestione della Conformità

**Operazioni**
- Metriche
- Gestione delle infrastrutture
- Collaborazione

**Analitica**
- Capacità di analisi
- Visualizzazioni del cruscotto

**Costo ed Efficienza - Infrastruttura di AI Generativa**
- Costo dell'AI per chiamata API
- Flessibilità nell'allocazione delle risorse AI
- Efficienza Energetica dell'IA

**Funzionalità - Costruttori di Agenti AI**
- Supporto omnicanale
- Branding dell'agente
- Capacità di Risposta Proattiva
- Escalation Umana Senza Soluzione di Continuità

**Governance e Osservabilità - Gateway AI**
- Privacy dei dati
- Monitoraggio dei costi
- Sicurezza centralizzata delle chiavi API

**Servizi di Machine/Deep Learning**
- Visione artificiale
- Elaborazione del Linguaggio Naturale
- Generazione del Linguaggio Naturale
- Reti Neurali Artificiali

**Integrazioni**
- Integrazione di Hadoop
- Integrazione Spark

**Qualità dei dati**
- Preparazione dei dati
- Distribuzione dei dati
- Unificazione dei dati

**Servizi di Machine/Deep Learning**
- Comprensione del linguaggio naturale
- Apprendimento Profondo

**Distribuzione**
- In sede
- Nuvola

**Sicurezza**
- Crittografia dei dati
- Controllo di Accesso Utente

**Manutenzione**
- Gestione della Qualità dei Dati
- Gestione delle politiche

**Gestione**
- Catalogazione
- Monitoraggio
- Governare

**Monitoraggio e Gestione**
- Osservabilità dei dati
- Testare le capacità

**Intelligenza Artificiale Generativa**
- Generazione di Testo AI
- Riassunto del testo AI

**Integrazione ed Estensibilità - Infrastruttura di AI Generativa**
- Supporto multi-cloud AI
- Integrazione della pipeline di dati AI
- Supporto e Flessibilità dell'API AI

**Dati e Analisi - Costruttori di Agenti AI**
- Analisi e Reportistica
- Consapevolezza contestuale
- Conformità alla Privacy dei Dati

**Distribuzione**
- Servizio gestito
- Applicazione
- Scalabilità

**Piattaforma**
- Scalabilità della macchina
- Preparazione dei dati
- Integrazione Spark

**Connettività**
- Integrazione di Hadoop
- Integrazione Spark
- Analisi Multi-Sorgente
- Lago di Dati

**Prestazione**
- Scalabilità

**Distribuzione su cloud**
- Supporto cloud ibrido
- Capacità di migrazione al cloud

**Intelligenza Artificiale Generativa**
- Generazione di Testo AI
- Riassunto del testo AI

**Intelligenza Artificiale Generativa**
- Generazione di Testo AI
- Riassunto del testo AI

**Sicurezza e Conformità - Infrastruttura di Intelligenza Artificiale Generativa**
- Conformità normativa e GDPR per l'IA
- Controllo degli accessi basato sui ruoli AI
- Crittografia dei dati AI

**Integrazione - Costruttori di Agenti AI**
- Automazione del flusso di lavoro
- Utilizzo dell'API
- Interoperabilità della piattaforma
- Integrazione dei dati CRM

**Piattaforme Analitiche - AI Agente**
- Esecuzione autonoma dei compiti
- Pianificazione a più fasi
- Integrazione tra sistemi
- Apprendimento Adattivo
- Interazione in Linguaggio Naturale
- Assistenza Proattiva
- Prendere decisioni

**Self Service**
- Campi Calcolati
- Filtraggio delle colonne di dati
- Scoperta dei dati
- Cerca
- Collaborazione / Flusso di lavoro
- Automodellazione

**Elaborazione**
- Elaborazione Cloud
- Elaborazione del carico di lavoro

**Operazioni**
- Visualizzazione dei dati
- Flusso di lavoro dei dati
- Scoperta Governata
- Analisi Incorporata
- Quaderni

**Sicurezza**
- Governance dei dati
- Sicurezza dei dati

**Intelligenza Artificiale Generativa**
- Generazione di Testo AI
- Riassunto del testo AI
- Testo-a-Immagine AI

**Intelligenza Artificiale Generativa**
- Generazione di Testo AI
- Riassunto del testo AI

**Usabilità e Supporto - Infrastruttura di AI Generativa**
- Qualità della documentazione AI
- Attività della Comunità AI

**AI agentico - Governance dei dati**
- Esecuzione autonoma dei compiti
- Pianificazione a più fasi
- Integrazione tra sistemi
- Apprendimento adattivo
- Interazione in Linguaggio Naturale
- Prendere decisioni

**Distribuzione e Integrazione - Piattaforme Analitiche**
- Costruttore di Dashboard senza codice
- Pianificazione e automazione dei report
- Analisi incorporate e White-labeling
- Connettività della fonte dati

**Analisi Avanzata**
- Analisi Predittiva
- Visualizzazione dei dati
- Servizi di Big Data

**Intelligenza Artificiale Generativa**
- Generazione di Testo AI
- Riassunto del testo AI

**Agentic AI - Piattaforme di Scienza dei Dati e Apprendimento Automatico**
- Esecuzione autonoma dei compiti
- Pianificazione a più fasi
- Integrazione tra sistemi
- Apprendimento Adattivo
- Interazione in Linguaggio Naturale
- Assistenza Proattiva
- Prendere decisioni

**Prestazioni e Scalabilità - Piattaforme Analitiche**
- Gestione di grandi quantità di dati e velocità delle query
- Supporto Utente Concorrenziale

**Piattaforme di Analisi Avanzata e Modellazione - Piattaforme Analitiche**
- Modellazione dei Dati e Governance
- Integrazione di Notebook e Script
- Modelli Predittivi e Statistici Integrati

**Capacità di IA agentica - Piattaforme di analisi**
- Approfondimenti e narrazioni generati automaticamente
- Query di linguaggio naturale
- Monitoraggio proattivo dei KPI e avvisi
- Agenti AI per i seguiti analitici

**Intelligenza Personalizzata - Piattaforme di Analisi**
- Apprendimento comportamentale per il perfezionamento contestuale delle query
- Personalizzazione dell'Insight Basata sul Ruolo
- Analisi conversazionale e basata su prompt

**Creare rapporti**
- Trasformazione dei dati
- Modellazione dei dati
- Progettazione di Report WYSIWYG
- API di integrazione

**Piattaforma**
- Supporto Utente Mobile
- Personalizzazione
- Gestione di Utenti, Ruoli e Accessi
- Internazionalizzazione
- Ambienti di prova / Sandbox
- Prestazioni e Affidabilità
- Ampiezza delle Applicazioni dei Partner

## Top Databricks Alternatives
  - [Teradata Vantage](https://www.g2.com/it/products/teradata-teradata-vantage/reviews) - 4.3/5.0 (340 reviews)
  - [Snowflake](https://www.g2.com/it/products/snowflake/reviews) - 4.6/5.0 (648 reviews)
  - [Google Cloud BigQuery](https://www.g2.com/it/products/google-cloud-bigquery/reviews) - 4.5/5.0 (1,146 reviews)

