Data Modelling: Tool & Best Practice

7 step per massimizare il valore dei dati

Qual è il primo passo da compiere per massimizzare il valore dei propri dati? La Modellazione

La quantità di dati che viene generata ogni minuto, ora, giorno è impressionante. Siamo consapevoli del loro volume e varietà ma non così tanto consapevoli del valore che possiamo trarre da questi dati. Si parla di Raw Data, Dati grezzi, costituiscono il punto di partenza su cui lavorare. Tanto più questi dati saranno conosciuti e condivisi all’interno dell’azienda tanto maggiori potranno essere le probabilità di successo.

15 minuti con Gabriele Ricciardi, Responsabile dell’Area Data Management di Gung, per approfondire:

  • L’importanza della modellazione con focus sul modello concettuale, logico e fisico
  • erwin Data Modeler come strumento abilitante, analisi delle sue funzionalità e database supportati.

Scopri come il Data Modelling permette di trarre il massimo profitto da una cultura incentrata sui dati attraverso la condivisione di informazioni all’interno dell’azienda secondo ruoli di competenza, instaurando una collaborazione che faccia diventare il dato un patrimonio unico e centralizzato.

Compila il form per ricevere il link di accesso al video

Clicca qui per leggere la trascrizione del video

0:00: Diamo inizio a questo intervento il primo intervento che riguarda il data modeling.

0:06: Questa è una traccia degli argomenti, una breve traccia degli argomenti che verranno trattati. Perché la modellazione è importante e su quali modelli si basa. Un focus sullo strumento di modellazione di erwin con un’illustrazione delle funzionalità dei database supportati, le versioni disponibili e le nuove funzionalità che sono uscite ora nell’ultima versione ad agosto.

0:37: Seguirà una demo live che illustrerà alcune di queste funzionalità che di cui parliamo.

0:44: Partiamo da un’immagine che deve essere un pochino d’aiuto per calarci nella vita di tutti i giorni, che ci proiettano in realtà dove noi siamo circondati da dati per non dire immersi nei dati.

0:57: Questi dati, che oramai tutti abbiamo imparato a chiamare big data. Big perché hanno molteplici forme, accanto ai normali dati transazionali che eravamo abituati un tempo a raccogliere, con la crescita della tecnologia si sono affiancati tanti altri tipi di dato, e-commerce social. Ultimamente tutta la parte anche dello IOT.

Abbiamo una statistica dei dati creati ogni minuto, ma su Internet se ne trovano molte. Ora non so nemmeno quanto sia precisa, ma l’importante è per sottolineare il volume dei dati che vengono generati.

1:40: E quindi sotto certi punti di vista siamo consapevoli del volume e della varietà di questi dati che abbiamo a disposizione.

1:48: Però, a volte forse diamo per scontato o non poniamo la giusta attenzione sull’importanza e sul valore di questi dati.

1:58: Questi, che in gergo si chiamano rawdata, dati grezzi, all’inizio sono la materia prima da utilizzare nei processi di analisi. Al crescere della maturità aziendale aumenta le complessità delle analisi e degli obiettivi del risultato, atteso. Quindi in genere si parte da analisi descrittive che fanno vedere quello che sta succedendo per poi passare analisi predittive di quello che potrebbe succedere.

2:25: Alla fine si arriva a quelle che si chiamano le perspective cioè di prospettiva, che suggeriscono che cosa fare.

2:34: È questo il percorso per un’azienda che deve diventare data driven, cioè diminuisce sempre di più l’intervento umano per prendere delle decisioni e passare poi alle conseguenti azioni. Quindi questi raw data costituiscono la base di partenza, come le fondamenta di una casa danno stabilità e garanzia di successo se sono conosciuti, compresi e condivisi all’interno dell’azienda.

3:02: Per questo è importante la modellazione.

3:05: La modellazione viene definita come gli elementi di interesse, gli attributi di caratterizzazione delle relazioni esistenti e delle regole di memorizzazione. Nella letteratura si trova che i livelli di modellazione sono tre e che hanno degli interlocutori diversi. Si parte quindi dalle necessità del business con lo stato concettuale.

3:40: L’identificazione delle strutture coinvolte con lo strato logico per infine arrivare a delle regole un po’ di implementazione con lo strato fisico, quindi sono questi tre gli step della modellazione.

4:01: Quindi riagganciandosi a quello che abbiamo detto anche all’inizio abbiamo l’opportunità.

4:09: di massimizzare il valore dei nostri dati proprio iniziando a salire questo primo scalino, dobbiamo cominciare a modellarli intanto perché così sappiamo con chi stiamo, con chi abbiamo a che fare.

4:22: E quindi deve essere adottato uno strumento di modellazione e noi siamo qui proprio oggi per illustrare e sponsorizzare l’utilizzo di Erwin data modeler.

4:31: che, grazie alla sua totale integrazione e gli altri strumenti della suite che gli stanno a contorno, riesce a garantire completa fusione tra la parte di governance della progettazione e di governance di tutti gli altri aspetti.

4:54: È un unico tool che permette di progettare, documentare, standardizzare e gestire qualsiasi dato da qualsiasi luogo. Luogo in questo caso inteso come struttura dati, quindi io riesco da una qualunque struttura dati a prelevare e a, ricreare su una qualunque altra struttura dati.

5:40: Da struttura dati a struttura dati e nel mezzo abbiamo tutta una serie di funzionalità variegate che ci consentono di fare tutta una serie di operazioni a seconda delle esigenze.

5:54: E quali sono queste operazioni? Allora abbiamo detto di progettazione, quindi riusciamo a realizzare modelli logici e fisici riagganciandoci quindi prima agli strati di modellazione che possono essere organizzati in subject area, cioè in viste più di interesse per aree di business, in modo tale da poter focalizzare i modelli sui diretti interessati per poter essere discussi ed affrontati. E modelli possono essere ottenuti, come si diceva prima, con un processo di forward, cioè, indirizzati a creare cose nuove, oppure.

6:28: di reverse Engineering per ridocumentare qualcosa già esistente.

6:34: Abbiamo poi la possibilità di standardizzazione, cioè attraverso, per esempio di introduzione di template, di modellazione in modo tale da avere una rappresentazione uniforme tra varie persone che poi possono partecipare anche alla progettazione stessa. L’utilizzo di domini data Type condivisi.

6:52: E soprattutto, e questa è la cosa forse più importante dalla parte della standardizzazione, la possibilità di applicare una convenzione che definisca delle regole da applicare per l’attribuzione di nomi, tabelle, colonne. Spesso ci troviamo ad aprire dei database dove ci vuole una legenda, un glossario anche per riuscire a capire che cosa rappresentano queste informazioni, quindi

7:18: applicare uno standard permette sia di interpretarle bene, ma sia anche a persone diverse di comprendere perché trovano un’uniformità.

7:27: Abbiamo poi la parte di gestione. Riusciamo a ottenere quella in gergo si chiamano le DDL, cioè le istruzioni da applicare sul DBA, a seconda dei differenti scenari. Questi potrebbero essere appunto, come abbiamo detto prima, creazione di modifica di migrazione da un tipo di database a un altro tipo di database, avvalendosi appunto di opportuni connettori che vengono forniti come nativi. Oltretutto abbiamo la possibilità di appoggiarsi su uno schedulatore che permette di poter

7:58: delegare attività un pochino pesanti come potrebbe essere un reverse Engineering o un compare in attività in orari magari dedicati, non presidiati.

8:10: Inoltre abbiamo la possibilità di documentare. Ci sono tutta una serie di report preconfezionati all’interno personalizzabili, che si possono utilizzare sia per estrarre informazioni sia per controllare il livello del modello che stiamo facendo. Possiamo fare delle verifiche della coerenza e oltretutto, esistono dei browser, che ci permettono di navigare questi modelli in sola lettura, per poter estendere

8:43: la comprensione anche a altri che non fanno la progettazione stessa.

8:47: Infine si arriva alla collaborazione.

8:51: Avvalendosi di un repository centrale dove è possibile quindi memorizzare tutti i modelli e con tutto questo permette una serie di attività quali il versionamento, la modellazione condivisa, la possibilità di gestire anche la riconciliazione.

9:24: Ultimamente è stato rilasciato un nuovo portale web che permette a tutti gli stakeholder interessati proprio di poter navigare questi modelli, quindi è già un primo passo per mettere il patrimonio che uno ha costruito in condivisione con l’altra, con altre persone dell’azienda.

10:29: Per quanto riguarda le versioni disponibili di erwin Data Modeler abbiamo la prima che è una standard Edition che permette quella del lavoro stand alone, cioè ognuno lavora per conto suo, lavora su file system. Abbiamo poi la Work Edition che è quella che introduce questo repository centralizzato che si chiama Mart.

11:03: Poi abbiamo una Navigator Edition che, come vi anticipavo, è praticamente un client model che permette di navigare gli oggetti, i modelli in sola lettura.

11:34: E l’ultimo è un connettore per altre Discovery particolari su SAP.

11:42: La versione Word Group è quella che invece mette a disposizione un repository, chiamato Mart dove tutte varie figure aziendali possono integrare il modello e metterlo a disposizione per tutta, per tutti gli altri componenti della parte più di Engineering

12:11: avendo però comunque un accesso profilato, avendo la possibilità di fare il versionamento dei modelli, centralizzare quella che è la name convention, un posto unico in modo tale che tutti la possano utilizzare e tante altre cose che sono diventano abilitanti per dare un valore aziendale.

12:30: Ad agosto è uscita una nuova versione che è la 12.5 che ha introdotto tutta una serie di funzionalità. Tra le più interessanti abbiamo lo schedulatore che ha la forma del calendario di Outlook nel quale possiamo collegare attività di Reverse Engineering o di complete compare schedulandoli in attività in fasce temporali, magari per ottimizzare tempi o risorse e magari arrivare la mattina e trovarsi il lavoro fatto da poter analizzare.

13:13: Nuovo portale web che consente quindi questa visualizzazione unificata e centrale dei modelli presenti all’interno del Mart.

13:22: Abbiamo poi un’integrazione tra DM, data model e la suite di dati intelligence in modo tale da poter avere uno scambio bidirezionale delle informazioni, cioè i modelli che vengono costruiti leggendo le strutture dati vengono memorizzate all’interno del Mart e il Mart poi li può mettere in condivisione verso il catalog della data intelligence. Ma a questo punto adesso, in questa nuova versione

13:56: può avvenire anche il percorso contrario. Ho fatto del lavoro nella DI e lo posso travasare verso il data Mart verso il data modeller.

14:26: Detto questo, passiamo a una demo di alcune delle funzionalità più importanti.

15:24: Apriamo il nostro erwin data modeler, allora questo che abbiamo installato è una versione Word Group; quindi, la prima cosa che facciamo è di verificare di essere collegati al Mart in modo tale che poi possiamo vedere anche queste informazioni al suo interno.

Se andiamo a vedere il catalogo del nostro Mart, vediamo in questo momento al suo interno ci sono alcuni modelli che sono stati creati in precedenza. Ora vedremo che quello che andremo a creare noi verrà inserito all’interno del Mart e verrà versionato.

17:16: La prima funzionalità che vi voglio far vedere, è quella che abbiamo detto di fare un modello fra un scratch, per poi ottenere gli script di forward Engineering, quindi vado a creare qualcosa di nuovo che non ho in questo momento, quindi vado a creare un nuovo modello e la prima cosa che vedete viene chiesta. Viene chiesto che tipo di modello voglio fare, voglio fare un modello logico, un modello fisico oppure voglio fare un modello logico che è fisico, cioè entrambe gli strati. Noi scegliamo un modello logico e fisico, così cerchiamo ci viene chiesto di scegliere qual è quello che in gergo si chiama il target DB, cioè

18:01: il database su cui poi noi vorremmo creare questo modello. A seconda del target DB gli script vengono adattati a chi è il destinatario e questo lo fa tutto in automatico; quindi, io potrei partire come facciamo adesso noi

18:32: scegliendo come destinatario postgre e poi, poco prima di generarli, decido che è Oracle, io glielo cambio automaticamente. Gli script verranno riadattati per la nuova struttura.

18:43: Quindi andiamo avanti.

18:45: Ci viene creato l’ambiente.

18:49: Come vedete ci sono i due layer a questo punto logico e fisico, perché noi abbiamo chiesto di fare entrambi. E partiamo dallo

18:57: strato logico, allora cerchiamo di fare un esempio legato a quello che stiamo facendo stamattina; quindi, cominciamo a definire chi sono le entità di interesse

19:11: E quindi proviamo a dire che noi abbiamo l’enità evento.

19:17: Abbiamo intervento.

19:23: E abbiamo relatori.

19:29: A questo punto abbiamo identificato.

19:34: Chi sono le entità di interesse

19:36: In un passaggio ulteriore di approfondimento, dobbiamo cominciare a definire chi sono gli attributi che caratterizzano queste entità. Andiamo ad aggiungere

19:58: codice evento e come vedete, possiamo già cominciare ad appoggiare a dei domini di dati preconfigurati con dei relativi tipi associati; quindi, noi se scegliamo stringa vediamo nella parte stringa. Abbiamo già catalogato tutta una serie di tipi. Se scelgo date time ho già tutti preconfigurati tutta una serie di tipologie di dati coerenti col dominio e ora nel nostro caso li facciamo tutti alfanumerici.

20:29: Quindi, abbiamo aggiunto il codice, aggiungiamo anche la descrizione.

20:40: Ok, ora ci vuole un attimino, ma facciamo la stessa cosa per le altre due.

21:40: A questo punto, ulteriore passo nella

21:43: definizione del nostro modello dobbiamo indicare chi è di questi attributi, quello che in gergo si dice identifica l’entità. Possiamo fare un semplice drag and drop, spostare l’attributo nella parte superiore e quindi vuol dire che diventa l’attributo caratterizzante come chiave di questa entità oppure lo possiamo fare dal menù vicenda.

22:20: È rimasto l’ultimo pezzettino, quello di definire le relazioni che ci sono tra queste entità. Posso definire le cardinalità che ci sono tra le varie entità di relazione, una, molti a molti; quindi, in questo caso diciamo che

22:42: l’intervento appartiene a un evento di riferimento e quindi, come vedete nel momento io metto questa relazione. La chiave dell’evento viene portata in automatico chiaramente nell’altra entità, mentre tra intervento e relatore si sta parlando già di una relazione diversa. Perché un intervento può avere più relatori, come vedrete in quello successivo, infatti lo faremo a braccetto, diciamo io e Stefania è un relatore, di conseguenza può fare più interventi, quindi questa è una relazione. Molti a molti, quindi qui mettiamo una relazione molti a molti.

23:14: Diciamo che noi abbiamo finito la parte del modello logico, ce lo salviamo.

23:24: Vedete se vai a smart model ci viene chiesto che nome gli vogliamo dare

23:29: diciamo che la chiamiamo Congresso.

23:33: E salviamo.

23:36: Beh, a questo punto.

23:39: se noi facciamo un refresh vediamo che il nostro Congresso è andato a finire all’interno del Repository centrale; quindi, è già sotto certi punti di vista disponibile per altri che potrebbero fare una modellazione parallela o condivisa.

23:57: A questo punto spostiamoci sullo strato fisico.

24:01: Come vedete le entità vengono trasformate in tabelle, gli attributi in colonne e le relazioni rimangono relazioni e come sappiamo, chi ha a che fare un po’ con la modellazione In genere un’associazione molti a molti viene risolta in una tabella associativa, quindi qui ci troviamo questa tabella. Intervento relatore.

24:24: La trasposizione tra il modello logico e il modello fisico viene fatta in automatico dallo strumento e questi due strati rimangono sincronizzati l’uno con l’altro. Se io faccio una modifica su logico, mi viene ribaltata sul fisico, se faccio una modifica sul fisico mi viene ribaltata sul logico in modo tale da tenerli

25:33: A questo punto, altra cosa interessante ed è forse quella delle più importanti, a mio modo di vedere, della standardizzazione è quella della niming. Noi potremmo voler dare uno standard di nomenclatura.

25:53: Attraverso il naming standard abbiamo la possibilità di applicare un glossario che in qualche modo ci faccia delle trasformazioni in automatico dei nomi, seguendo delle regole. Andiamo a creare questa naming Convention che possiamo appoggiare o all’interno del Mart oppure su un file Excel.

28:30: Ha portato una decodifica che qualcuno ha definito come standard aziendale. In qualche modo vedete che le varie parole hanno un’abbreviazione

28:44: A questo punto non mi resta che

28:47: applicarla.

28:50: E quindi posso decidere che qua io voglio applicare questo glossario, quando passo da entità a tabella, quando passo da attributo a colonna.

30:20: A questo punto ci rimane l’ultimo step, quello di ottenere le script, le DDL per poterlo creare. Andiamo su action, schema Forward Engineering.

30:34: target database che è postgre, ma io potrei cambiarlo ora ci diamo che rimaniamo con postgre.

30:43: Schema, in fase di creazione ho la possibilità di avere un pochino di opzioni di scelta, quindi potrei mirare a ottenere tutto quello che abbiamo modellato, oppure magari solo gli script per le tabelle, solo per qualche tabella, solo per gli indici. Ora noi qui lasciamo tutte le spunte, però potrei anche indirizzare per che cosa voglio ottenere con lo script, non necessariamente su tutto.

31:07: Quindi se noi facciamo una preview, vediamo che ci vengono create tutte le istruzioni da poter lanciare sul database. Ora queste le possiamo salvare su un file e lanciare in un secondo momento, o potremmo anche collegarci direttamente con il database e lanciarle.

31:27: E quindi questo è il primo esempio, il forward.

31:31: Chiudiamo.

31:40: Secondo esempio.

31:42: Come era stato accennato, noi abbiamo una struttura dati che non conosciamo o per la della quale non abbiamo documentazione; quindi, possiamo fare il primo passo è quello del reverse Engineering, cioè noi lo andiamo a leggere e riotteniamo il modello della struttura dati in automatico, quindi con reverse Engineering di nuovo mi viene chiesto che modello voglio fare.

32:25: Facciamo un fisico. Ci colleghiamo e ora eccolo qua. Ci chiede le caratteristiche per la connessione.

32:34: Ci colleghiamo al nostro database locale.

32:39: E abbiamo anche qui la possibilità di avere un po’ di scelte. Quindi chi sono lo schema di riferimento, l’utente, potrei scegliere solamente delle tabelle o tutte le tabelle ora qui, se vedete, queste sono le stesse tabelle che abbiamo visto. Il modello prima, perché nel frattempo è già stato creato e quindi noi lo andiamo a riottenere da un database che già esiste. Quindi in questo caso prendiamo tutte le tabelle, abbiamo

33:03: altre opzioni di scelta, come vi dicevo, potrei mirare solo alcune cose, ora lasciamo tutto selezionato.

33:16: E’ andato a leggere le strutture dati che io poi posso disporre un pochino in automatico e ho riottenuto quelle tabelline che avevamo visto prima.

33:36: Però questa volta invece essere figlie di una modellazione fatta dall’ingegnere, diciamo così, questa è stata recuperata dal database e documentata.

33:48: Quindi questa ce la salviamo.

33:57: E la chiamiamo magari Congresso Reverse.

34:07: A questo punto un ulteriore esempio. Abbiamo bisogno di apportare delle modifiche, quindi utilizzeremo poi quella che è la comparazione. Cioè, io ho due modelli o un modello, un database, questo a seconda delle casistiche, in modo tale da capire che differenze ho, quali sono gli script necessari da applicare per far sì che i due modelli poi diventino sovrapponibili, identici.

34:43: Quindi per prima cosa aggiungiamo un nuovo campo che magari ci traccia la durata dell’intervento, quindi aggiungiamo un campo, una nuova colonna.

35:17: Questa volta magari decidiamo che si tratta di minuti, i secondi, quindi è un number intero, magari.

35:24: E poi, sempre parlando di business, ci siamo resi conto e magari la descrizione dell’intervento è troppo piccola invece che 20 caratteri. Abbiamo bisogno di una descrizione più grande e la portiamo a 50.

35:39: A questo punto queste di nuovo sono banali, me le ricordo alter Table e Alter column e ho fatto, ma forse frutto di una giornata di lavoro o di più persone, magari telefonate, posso ricorrere a quello che è la funzionalità appunto del complete compare col complete compare. Che cosa posso fare? Posso mettere a confronto quindi due modelli.

36:05: Modello database, database database in ogni caso, due strutture dati e possono essere confrontate, come vedete si parla di una parte left e di una parte right; quindi, in questo momento abbiamo un modello solo che è il New, noi andiamo a caricare da file in questo caso, ma come vedete lo potrei fare da Mart o da database, il mio Congress reverse.

36:29: Quindi, a questo punto ci troviamo da una parte un modello e da una parte l’altro, anche qui possiamo scegliere dove indirizzare questo compare; quindi, non è detto voglia comparare tutto il modello, potrei dire solo su una tabella solo su alcune colonne, solo su qualche cosa, quindi lo posso indirizzare. In questo caso tutte le opzioni le lasciamo inalterate e facciamo il compare.

38:24: In questa maschera, in buona sostanza io posso analizzare la situazione; quindi, o di che cosa è uguale o di che cosa è diverso

38:37: Solamente diverso o che cosa c’è dalla parte sinistra, Non c’è dalla parte destra o viceversa, quindi in questo caso di diverso che cosa ha trovato?

38:47: Che c’è la colonna in più, la durata, quindi lui sente che c’è questo campo in più che non era dall’altra parte. Quindi noi possiamo dire se accettare le modifiche, quali delle due vogliamo, o il dato sinistro o il destro. Noi confermiamo che vogliamo la parte delle modifiche di destra, quindi vogliamo aggiungergli questi campi.

39:18: E finendo.

39:25: Posso personalizzare che tipo di script voglio ottenere. Se per tutto le differenze solo per qualche cosa, se faccio la Preview vedete ora me ne ha preso. Non ho capito perché non ho preso anche la modifica sulla colonna. Però in buona sostanza trovo quali sono gli alter da applicare. Quindi l’alter table a questo campo e quindi con questo è venuta la parte di Delta tra le due strutture. Quindi abbiamo visto il Forward, abbiamo visto il reverse, abbiamo visto il compare.

40:01: Adesso vediamo la parte dello schedulatore.

40:08: Lo scheduler ha l’aspetto di Outlook, quindi posso mirare per giorno, settimana, mese. Posso inserire quindi delle schedulazioni.

40:27: Andiamo a fare uno nuovo evento. Gli diamo un nome. Possiamo categorizzarlo, almeno con dei colori. Io per esempio ho usato questo questo metodo del colore per dire quelli di un colore sono tutti reverse Engineering, quelli di un altro colore sono tutti compare, quelli di un altro colore sono in ambiente di testo, altri sono ambienti di produzione. Ora usiamo il colore verde.

41:10: Possiamo definire quando lo vogliamo schedulare, quindi settimanalmente, giornalmente.

41:25: Possiamo poi definire se si tratta di un reverse Engineering, o anche di un compare. Abbiamo il nostro database che abbiamo visto prima, postgre reverse Engineering.

41:39: Di nuovo mi viene chiesta la connessione, questi, visto che si sta trattando di reverse Engineering, son tutti parametri che abbiamo visto prima quando abbiamo fatto i reverse Engineering. Lui ci chiede tutte le cose che ci ha chiesto prima, quindi magari qual è l’utente, qual è lo schema, quali sono le tabelle? Ora noi le lasciamo tutte.

42:04: Possiamo personalizzare magari e mirare solamente alcune cose di interesse. Possiamo dirgli di applicare la naming convention quando legge le informazioni.

42:18: Possiamo dire dove salvare il modello, e a questo punto se facciamo next ci ha creato tutte le schedulazioni e quindi questo poi in autonomia partirà nei momenti opportuni e farà le attività che sono state definite.

42:40: Ultime due cose. Aabbiamo parlato della parte dei report, quindi di nuovosu questa parte qui del dei tools abbiamo questo report designer che ci permette di agganciarci a tutta una serie di report che sono già presenti all’interno del dello strumento, che però possono essere personalizzati oppure creati di nuovo.

43:11: Prendo con dei pezzi di report da uno all’altro, mi sembra più opportuno fare una reportistica diversa e quindi lo posso personalizzare.

43:22: Questi report si indirizzano su un’analisi del contenuto del Mart oppure su del modello stesso; quindi, ci sono dei report più amministrativi, mi fanno vedere il contenuto del Mart, mi possono dire quante entità ci sono, che colonne ci sono oppure dei report più di validazione.

43:41: Mi dicono che problemi ho nel mio modello da un punto di vista di completezza e ora ne vediamo alcuni esempi, quindi, per esempio sul report amministrativo, io potrei vedere il numero degli oggetti presente all’interno dell’account of object, quindi io posso ottenere una lista, tutto quello che viene viene fuori dai report io in realtà posso salvarli, in Excel in PDF o addirittura in HTML navigabile oppure un altro esempio, di un altro report. Potrei dire io voglio verificare un attimino dei miei modelli. Una validazione. Ma quali sono le colonne che non hanno un commento, per esempio.

44:30: Mando in esecuzione mi fa scegliere su quale modello fare questa cosa ora lo facciamo sull’ultimo nostro.

44:39: Chiaramente tutte, perché io non ho messo il commento su nessuna poi.

44:43: Altro esempio che possiamo far vedere.

44:47: È più a uso documentativo, magari quindi vado sul modello model report, per esempio potrei fare un diagramma, eccolo qua, diagram PC report e magari gli dico, lo voglio ottenere in HTML.

45:13: Quindi ottengo un HTML, un documento navigabile che mi fa da documentazione ed è navigabile. Io clicco e automaticamente vado sugli oggetti.

45:36: Ultima cosa da vedere è la navigazione degli oggetti all’interno del Mart, per esempio, io posso richiamare quello che è il portale ora un attimo le credenziali.

46:19: Entro all’interno del portale.

46:23: In questo caso partendo da una specie di homepage mi fa vedere una sintesi di che cosa c’è dentro al nostro portale in questo momento ci dice che ci sono due modelli che c’è un utente attivo, posso fare tutta un’altra serie di configurazione degli utenti che ci possono accedere, ma quello che vi volevo far vedere un attimo è la navigazione degli oggetti. Quindi quei due modelli che vedevamo prima possono essere visti e già analizzati da un punto di vista di impatto, quanti diagrammi ci sono, quante tabelle, quante viste e se vado per esempio sul diagramma, mi fa vedere quali sono i diagrammi presenti. Se ne evidenzio uno, io ho la possibilità di vedere il diagramma.

Il modello stesso può essere personalizzato su vari tagli. Questo qui mi fa vedere solamente le entità coinvolte con le relazioni che hanno fra di loro. Però per esempio io avrei potuto ottenere un report che in realtà ha delle entità e mi fa vedere solo le definizioni, a seconda di chi è l’interlocutore o l’interesse. Oppure, potrei avere il mio modello logico o il modello fisico che chiaramente posso navigare, posso identificare che magari mi interessa questa tabella, prendiamone un customer. Posso vedere delle informazioni della descrizione della tabella. Vedo le colonne, posso andare su una colonna mi analizza il contenuto. Vedo la descrizione della colonna. Tutto questo è già un primo passo verso una condivisione di un patrimonio dati che prima magari era solamente di chi era il progettista. In più, per esempio, posso farci addirittura delle ricerche, quindi customer. Trova tutto quello che è coerente con la ricerca. Mi da poi la possibilità di indirizzare la ricerca, potrei mirare per un contenuto che è solamente nelle tabelle, per esempio, oppure scegliere in quale modello si trova personalizzando la ricerca in base alle esigenze.