“L’impatto dell’Intelligenza Artificiale nella Pubblica Amministrazione” di Anna Rocca

Interessante approfondimento di diritto amministrativo a cura di Anna Rocca, pubblicato sulla rivista "Ratio Iuris"

Sommario: 1. Premessa; 2. L’utilizzo degli algoritmi nella Pubblica Amministrazione; 3. Procedure decisionali automatizzate e fonti normative; 4. I recenti orientamenti giurisprudenziali del Consiglio di Stato in materia di algoritmi e procedure decisionali della P.A.; 5. Il rovescio della medaglia: le criticità dell’utilizzo dell’A.I. nella P.A.; 6. Considerazioni conclusive.

  1. Premessa

Le origini dell’Intelligenza Artificiale (A.I.) risalgono agli anni ‘40-‘50, ma solo di recente essa è entrata a far parte a pieno ritmo nel nostro panorama quotidiano. Basti pensare alle applicazioni di filtraggio dello spam, alla traduzione automatica, al riconoscimento e generazione di oggetti multimediali, ai sistemi di dialogo intelligenti. Tutte applicazioni che ci accompagnano in ogni attività che svolgiamo.

Il Ministro per l’Innovazione tecnologica e la transizione digitale, Vittorio Colao, ha messo al centro della propria agenda la digitalizzazione della Pubblica Amministrazione con l’intento primario di velocizzare e snellire i processi dell’intero apparato amministrativo. Partiamo da qui per analizzare lo stato dell’arte delle procedure automatizzare nell’ambito dei procedimenti decisionali della P.A..

  1. L’utilizzo degli algoritmi nella Pubblica Amministrazione

Per definire gli algoritmi e la programmazione algoritmica, oggi molto utilizzata all’interno di svariati settori della Pubblica Amministrazione, è necessario chiarire cosa si intende per Intelligenza Artificiale per poi rapportarla alla più specifica branca della programmazione algoritmica. L’intelligenza Artificiale, c.d. Artificial Intelligence (A.I.) può essere definita come un insieme di processi intellettivi compiuti da un sistema algoritmico, in grado di creare un vero e proprio “pensiero” artificiale autonomo ed originale. In altre parole, l’A.I. conferisce ad una macchina capacità umane quali l’apprendimento, la pianificazione, la creatività, il ragionamento.

Alla base dell’Intelligenza Artificiale vi è, infatti, il c.d. machine learning o apprendimento automatico, che consente di acquisire in modo automatizzato strategie risolutive e previsionali in base all’esperienza maturata1. Apprendimento e creatività costituiscono il discrimen tra Intelligenza Artificiale e programmazione basata sull’algoritmo. Quest’ultima, infatti, è quella “sequenza ordinata di operazioni di calcolo che in via informatica [è] in grado di valutare e graduare una moltitudine di domande”2. L’algoritmo, dunque, è un insieme di operazioni logiche che, a partire da determinati dati in ingresso, fornisce, attraverso una sequenza finita di passaggi, determinati dati in uscita3. Ogni volta che si ha la fattispecie “A” viene presa la decisione “B”, sulla base dello schema logico del «giudizio condizionale» posto alla base della programmazione algoritmica.

Sebbene l’algoritmo appaia come un sistema neutro, frutto di asettici calcoli razionali basati sui dati inseriti, in realtà tale formula matematica è il risultato di precise scelte e valori, nonché di giudizi compiuti “a monte” dall’uomo4. In realtà, tali modelli predittivi sono tutt’altro che neutri. Difatti, ciascun algoritmo risponde sempre alle istruzioni dell’uomo e non arriva all’elaborazione di un proprio pensiero autonomo. Per mezzo della programmazione algoritmica, i criteri normativi sottesi alle procedure vengono trasformati in algoritmi che conducono alla decisione finale, attraverso una sequenza pre-impostata dal programmatore, ossia dalla Pubblica Amministrazione. Il precetto normativo segue, dunque, lo schema: “Se (if)…allora (Then)”5. Si tratta, senz’altro, di un modello di ragionamento molto più semplice rispetto a quello dell’Intelligenza Artificiale ma che desta numerose perplessità, soprattutto sul futuro che ci attende.

  1. Procedure decisionali automatizzate e fonti normative

Il ricorso alle tecnologie informatiche risponde ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1, legge n. 241/90) i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il conseguimento dei loro fini con il minor dispendio di mezzi e risorse ed attraverso lo snellimento e l’accelerazione dell’iter procedimentale6. Il dovere connesso alla necessità di incentivare l’utilizzo delle nuove tecnologie nell’attività amministrativa è, inoltre, espressamente previsto all’articolo 3-bis della Legge 241/1990, che così dispone: “le amministrazioni pubbliche agiscono mediante strumenti informatici e telematici, nei rapporti interni, tra le diverse amministrazioni e tra queste e i privati”.

Ma non solo. Anche il D.lgs. 82 del 7 Marzo 2005 (c.d. Codice dell’Amministrazione Digitale), sin dalla sua introduzione, ha promosso con vigore l’utilizzo di strumenti digitali nell’ambito dei rapporti con enti e pubbliche amministrazioni, stabilendo che: “le pubbliche amministrazioni nell’organizzare autonomamente la propria attività utilizzano le tecnologie dell’informazione e della comunicazione per la realizzazione degli obiettivi di efficienza, efficacia, economicità, imparzialità, trasparenza, semplificazione e partecipazione nel rispetto dei principi di uguaglianza e di non discriminazione, nonché per l’effettivo riconoscimento dei diritti dei cittadini e delle imprese di cui al presente Codice in conformità agli obiettivi indicati nel Piano triennale per l’informatica nella pubblica amministrazione”7.

L’adozione di decisioni fondate su procedimenti automatizzati incide, inoltre, sul trattamento dei dati personali di ciascun individuo. Il profilo attinente al rapporto tra la pubblica amministrazione, che procede attraverso procedimentalizzazioni digitali “spinte”, e la sua controparte (l’interessato), rispetto al trattamento dei suoi dati personali ed alle “garanzie” (invero non facilmente decrittabili e spesso affievolite) viene disciplinato dal Regolamento UE 2016/679 (c.d. G.D.P.R.), in particolare all’art. 22.

  1. I recenti orientamenti giurisprudenziali del Consiglio di Stato in materia di algoritmi e procedure decisionali della P.A.

L’assenza di una disciplina puntuale e di dettaglio ha costituito, e costituisce ancora oggi, terreno fertile di un continuo susseguirsi di pronunce giurisprudenziali. Il Consiglio di Stato, difatti, si è trovato a dover fare il punto della situazione nel tentativo di delineare i criteri e le modalità per l’adozione di questi nuovi processi digitali. Una delle più importanti decisioni è decisamente costituita dalla sentenza del Consiglio di Stato n. 2270 del 2019. I giudici di Palazzo Spada hanno tracciato i confini tra potere pubblico ed uso dell’algoritmo, con i relativi limiti in ordine all’utilizzo della decisione automatizzata, circoscritta al solo contesto dell’attività vincolata.

Con la decisione in commento, il CdS ha sottolineato gli “indiscutibili” vantaggi derivanti dalla automazione del processo decisionale dell’amministrazione mediante l’utilizzo di una procedura digitale ed attraverso un “algoritmo” – ovvero di una sequenza ordinata di operazioni di calcolo – che in via informatica sia in grado di valutare e graduare una moltitudine di domande. L’utilità di tale modalità operativa di gestione dell’interesse pubblico risulta, dunque, essere particolarmente evidente con riferimento a procedure seriali o standardizzate, implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale.

Nello specifico, il caso affrontato vede protagonisti un gruppo di docenti della scuola secondaria che, nel settembre 2015, erano risultati destinatari di una proposta di assunzione a tempo indeterminato. Il Ministero dell’Istruzione, al fine di procedere alla selezione dei docenti, si era servito di un sistema informatico basato su algoritmi, il cui funzionamento era, tuttavia rimasto sempre sconosciuto. Gli appellanti lamentavano che nella procedura di selezione le preferenze dichiarate non erano state prese in considerazione e che, di conseguenza, l’algoritmo avesse gravemente violato il principio meritocratico nell’assegnazione degli incarichi ed il principio di trasparenza. Il Collegio chiamato a dirimere la controversia, nel corpo della sentenza in commento, delinea i principi basilari a cui l’algoritmo deve tendere. Viene innanzitutto chiarito che l’algoritmo debba essere considerato conforme ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 l. 241/90), i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il conseguimento dei propri fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale: a dire del CdS, l’utilizzo di una procedura informatica che conduca direttamente alla decisione finale deve essere incoraggiato, poiché comporta numerosi vantaggi quali, ad esempio, la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano) e la conseguente maggior garanzia di imparzialità della decisione automatizzata.

Il CdS sottolinea, però, che il ricorso a procedure “robotizzate” non può essere motivo di elusione dei princìpi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa. Difatti, la regola tecnica che governa ciascun algoritmo resta pur sempre una regola amministrativa generale, costruita dall’uomo e non dalla macchina, per essere poi (solo) applicata da quest’ultima, anche se ciò avviene in via esclusiva.

Il Collegio procede, allora, a dettare alcuni principi in punto di regola algoritmica, la quale: – possiede una piena valenza giuridica e amministrativa, anche se viene declinata in forma matematica e, come tale, deve soggiacere ai principi generali dell’attività amministrativa, quali quelli di pubblicità e trasparenza (art. 1 l. 241/90), di ragionevolezza, di proporzionalità e così via; – non può lasciare spazi applicativi discrezionali (di cui l’elaboratore elettronico è privo), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale; – vede sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell’algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning); – deve contemplare la possibilità che sia il giudice a “dover svolgere, per la prima volta sul piano ‘umano’, valutazioni e accertamenti fatti direttamente in via automatica”, con la conseguenza che la decisione robotizzata “impone al giudice di valutare la correttezza del processo automatizzato in tutte le sue componenti”. In definitiva, dunque, avanza il Collegio, l’algoritmo, ossia il software, deve essere considerato a tutti gli effetti come un “atto amministrativo informatico”. Ciò comporta, in primo luogo, che esso, in ossequio al principio di trasparenza, resti pienamente conoscibile e sindacabile. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.

La piena conoscibilità dell’algoritmo è, infatti, “una declinazione rafforzata del principio di trasparenza”. In secondo luogo, la regola algoritmica deve essere non solo conoscibile ma anche comprensibile e soggetta alla piena cognizione, e di conseguenza al pieno sindacato, del giudice amministrativo. Tale esigenza risponde, a pieno titolo, al diritto di difesa del cittadino poiché prevede di poter sindacare le modalità di esercizio del potere. Al cittadino, dunque, non può essere preclusa la possibilità di conoscere le modalità (anche se automatizzate) con le quali è stata in concreto assunta una decisione destinata a ripercuotersi sulla sua sfera giuridica. Solo in questo modo, secondo il Collegio, è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione.

Il Consiglio di Stato, con la sentenza in esame, accoglie, in definitiva, le doglianze dei docenti, riconoscendo la sussistenza della violazione dei principi di imparzialità, pubblicità e trasparenza dell’azione amministrativa. A distanza di pochi mesi dalla pronuncia della sentenza n.2270/2019, sul tema sono intervenute le tre “sentenze gemelle” del Consiglio di Stato n. 8472, 8473, 8474, sempre con la finalità di dirimere controversie relative a procedure di concorso per l’assegnazione dei ruoli di dirigenti scolastici di “fascia C”.

Di particolare interesse risulta essere la sentenza n. 8472 del 13 dicembre del 2019, nella quale viene chiarita l’ammissibilità del ricorso all’algoritmo nelle procedure decisionali della P.A., ponendo particolare attenzione alle considerazioni logico- giuridiche, riconducibili al diritto sovranazionale ed in particolare al Regolamento europeo 679/2016, alla Carta sulla Robotica ed alla Convenzione europea sui diritti umani. Il Consiglio di Stato conduce l’operatore del diritto in un percorso argomentato che parte dalla considerazione che, in linea generale, la P.A. debba sfruttare le rilevanti potenzialità della rivoluzione digitale quali, primo fra tutti, l’indiscusso guadagno in termini di efficienza e neutralità. Il Collegio osserva, infatti, che in molti settori gli algoritmi riuscirebbero a correggere le imperfezioni e le storture che caratterizzano i processi cognitivi e le scelte compiute dagli esseri umani, sottolineati con vigore, negli ultimi anni, dalla letteratura di economia comportamentale e di psicologia cognitiva. L’algoritmo, a differenza dell’uomo, risulterebbe essere neutrale nelle decisioni, poiché fondato su asettici calcoli razionali basati su dati matematici.

Invero, la regola tecnica che governa ciascun algoritmo risulta essere una regola amministrativa generale, generata dall’uomo e non dalla macchina per essere poi applicata solo da quest’ultima in via esclusiva. L’algoritmo resta, infatti, il modus operandi della scelta autoritativa. Viene ribadito, inoltre, che alla base della regola giuridica automatizzata devono esservi piena conoscibilità e comprensività dell’algoritmo utilizzato e di conseguenza concreta sindacabilità, quale ulteriore declinazione del principio di trasparenza della Pubblica Amministrazione.

A coronamento del ragionamento logico-giuridico intrapreso, il Collegio giunge a delineare un terzo aspetto essenziale, partendo dalla disamina del Regolamento Europeo in materia di privacy (Reg. Eur. 2016/679): l’imputabilità. Difatti, il Regolamento Europeo di cui si discorre prevede una garanzia di particolare rilievo nei casi in cui il processo sia interamente automatizzato essendo richiesto, almeno in simili ipotesi, che il titolare debba fornire “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”. Nelle procedure automatizzate, dunque, è necessario individuare sempre un centro di imputazione e di responsabilità “umana” evitando così la realizzazione di procedure completamente avulse dal sistema amministrativo.

In tale contesto, il Collegio richiama, quale elemento rilevante di inquadramento del tema, la Carta della Robotica, approvata nel febbraio del 2017 dal Parlamento Europeo: al fine di applicare le norme generali e tradizionali in tema di imputabilità e responsabilità, occorre garantire la riferibilità della decisione finale all’autorità ed all’organo competente in base alla legge attributiva del potere. Infine, il CdS schematizza tre principi che emergono dal diritto sovranazionale, da considerare nell’esame e nell’utilizzo degli strumenti informatici.

Il primo principio attiene alla conoscibilità: essa consente ad ognuno di conoscere l’esistenza di processi decisionali automatizzati che lo riguardano e di ricevere indicazioni sulla logica utilizzata, in ossequio al principio di conoscibilità.

Tale aspetto consente la piena sindacabilità di ogni decisione elaborata con procedure automatizzate, come estrinsecazione del più ampio principio di trasparenza. Il secondo principio riguarda la non esclusività della decisione algoritmica quale possibilità di ogni individuo di richiedere l’intervento umano in tutti i casi in cui la decisione automatizzata procuri effetti giuridici che riguardano o incidono, in modo particolarmente significativo, sulla sfera personale dell’individuo interessato.

Difatti, come osservato dal Consiglio di Stato nel processo decisionale non si può prescindere da un contributo umano capace di controllare ovvero smentire la decisione automatizzata8. Il terzo ed ultimo principio viene denominato “non discriminazione algoritmica”. Esso trova il proprio fondamento giuridico nel considerando n. 71 del Regolamento 679/2016 e si sostanzia nell’opportunità, intesa quale necessità, di utilizzo, da parte del titolare del trattamento, di procedure statistiche o matematiche appropriate alla profilazione, attraverso l’implementazione di misure tecniche ed organizzative adeguate al fine di garantire la correzione dei fattori che comportano inesattezze dei dati e la minimizzazione del rischio di errori. Inoltre, tale principio consentirebbe non solo la sicurezza dei dati personali, ma anche e soprattutto, eviterebbe la produzione di effetti discriminatori basati sulla razza, sull’origine etnica, sulle ragioni politiche, sulla religione o sulle convinzioni personali, sullo status genetico, di salute o sull’orientamento sessuale di ciascun individuo. Pur dinanzi ad un algoritmo conoscibile e comprensibile, non costituente l’unica motivazione della decisione, tuona il Consiglio di Stato, occorre, dunque, che lo stesso non assuma carattere discriminatorio. A seguito degli importanti approdi del 2019, il Consiglio di Stato è tornato diverse volte sul tema attinente al rapporto tra procedimento amministrativo ed algoritmi e intelligenza artificiale. Sul punto, ribadendo e richiamando i principi statuiti nelle sentenze n. 2270, 8472, 8473, 8474 del 2019, arricchisce ed integra alcuni aspetti.

Nello specifico, il Collegio con la sentenza n. 881 del 2020, ribadisce che, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile. Con le già individuate conseguenze in termini di conoscenza e di sindacabilità di cui alla sentenza 2270/2019. Pertanto, il Collegio arriva a concludere che non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati, che, ponendo al servizio del potere autoritativo tali strumenti, ne devono accettare le relative conseguenze in termini di necessaria trasparenza. Con la pronuncia 1206 del 2021, la sesta Sezione del Consiglio di Stato conclude conformemente a quanto più volte rimarcato dalla stessa, con sentenze n. 2270 del 2019, n. 8472 del 2019, n. 8473 del 2019, n. 8474 del 2019 e n. 881 del 2020, rinviandovi per relationem.

  1. Il rovescio della medaglia: le criticità dell’utilizzo dell’A.I. nella P.A.

Si può osservare, a questo punto, che l’adozione di procedure automatizzate possa condurre ad un insidioso rischio: quello di deresponsabilizzare i funzionari amministrativi attraverso l’attribuzione delle procedure a “soggetti non umani”, delegittimando di conseguenza i procedimenti. Ciò che non si deve dimenticare è che l’algoritmo debba essere declinato, sempre e comunque, quale modus operandi della Pubblica Amministrazione ovvero come strumento finalizzato alla garanzia dell’efficienza delle procedure decisionali. Elemento essenziale, costantemente ribadito dai dicta del Consiglio di Stato, è che sia presente sempre un controllo umano “a monte”, che renda responsabile l’ente pubblico e consenta di imputare le decisioni ad un organo definito. Le difficoltà maggiori, invero, si riscontrano in merito al principio di trasparenza. Quest’ultimo, difatti, dovrebbe essere sempre assicurato attraverso l’implementazione di sofisticati meccanismi di conoscibilità e di comprensibilità dell’algoritmo utilizzato. Tale circostanza implicherebbe, in primis, la divulgazione del codice sorgente posto alla base dell’algoritmo. Nonostante ciò, tuttavia, ci potrebbero essere dei problemi in quanto il linguaggio di programmazione risulta essere, soprattutto per i non esperti, illeggibile e concretamente non comprensibile. In aggiunta, anche gli esperti potrebbero riscontrare difficoltà nel fare previsioni circa il funzionamento effettivo del software utilizzato9. Di conseguenza, la divulgazione del codice “incomprensibile” non sarebbe risolutiva con l’evidente svantaggio della mancata predisposizione delle chiavi di lettura delle procedure amministrative, con buona pace del principio di trasparenza e di sindacabilità delle decisioni prese dal sistema. Altro aspetto controverso e che necessita di attenzione riguarda le problematiche che potrebbero sorgere con la divulgazione e la diffusione del codice sorgente in tema di sicurezza nazionale, che potrebbe essere concretamente ed effettivamente, messa in serio pericolo. In conclusione, in assenza di ferree regole e di principi effettivamente risolutivi, l’adozione di procedure algoritmiche di intelligenza artificiale all’interno della P.A., potrebbe portare irrimediabilmente ad abusi e condotte arbitrarie o illegittime.

  1. Considerazioni conclusive

Dopo la breve disamina del fenomeno che concerne l’utilizzo dei sistemi algoritmici e dell’Intelligenza Artificiale all’interno delle procedure decisionali della Pubblica Amministrazione, è possibile affermare che gli algoritmi non possono essere considerati strumenti neutri ma necessitano, al fine di evitare gravi ed irrimediabili violazioni ai principi di trasparenza e di non discriminazione, della “guida umana”.

La soluzione da accogliere, dunque, sarebbe quella di evitare la deresponsabilizzazione della P.A. attraverso la predisposizione di strumenti di controllo che consentano all’uomo di “governare” la macchina. Quest’ultima, difatti, deve rappresentare, sempre e comunque, un mero modus operandi e non uno strumento sostitutivo rispetto all’imprescindibile attività dell’uomo. È pur vero che, l’introduzione di modelli decisionali e di forme gestionali innovative, che si avvalgono di tecnologie informatiche ed elettroniche, risponde al principio costituzionale di buon andamento dell’azione amministrativa, di cui all’art. 97 della Costituzione e risulta pienamente conforme ai canoni di efficienza ed economicità dell’azione amministrativa, in ottemperanza dell’art. 1 della Legge 241/1990.

Sul piano concreto, tuttavia, assicurare il rispetto del principio di trasparenza risulta complesso. La piena conoscibilità e la conseguente sindacabilità del sistema algoritmico posto alla base delle decisioni della P.A., spesso, non trovano applicazione.

Ma è giusto aggiungere una chiosa. La fotografia del panorama giuridico e sociale attuale mette in evidenza un sempre maggiore utilizzo di sistemi basati su procedimenti algoritmici, il cui dilagare incontrollato suscita, in particolare nell’operatore del diritto, numerose riflessioni. Il cammino intrapreso rischia di condurre in un vicolo cielo e senza ritorno. Il sistema informatico minaccia fortemente l’assetto tradizionale del nostro sistema giuridico, minando, in modo indiscriminato e continuo, il ruolo di centralità della “persona” quale fulcro dell’intero ordinamento. La macchina, asettica ed incontrollata, non può e non deve sostituire l’uomo ma può costituire senz’altro un importante ausilio. Una delle soluzioni proponibili potrebbe essere quella dell’immediato intervento del Legislatore al fine di predisporre un sistema di regole e di criteri normativi, specifici, individuati ed individuabili, controllati e vagliati prima del loro inserimento nel sistema. Solo attraverso questo sistema di filtraggio e di verifica preventiva della legittimità dei criteri utilizzati si potrebbe garantire la conformità, la correttezza e la coerenza della decisione con i principi cardine che regolano l’attività della Pubblica Amministrazione.

Anna Rocca

Fonte: https://www.ratioiuris.it/limpatto-dellintelligenza-artificiale-nella-pubblica-amministrazione/

Segui gli altri articoli di categoria qui:

https://www.carlettoromeo.com/category/utility/

carlettoromeo.com è un blog multimediale senza alcuna sovvenzione pubblica…
Se ti piace quello che facciamo, condividi i nostri articoli sui social…
Se vuoi sostenere il nostro lavoro, puoi farlo con una libera donazione Paypal
GRAZIE

Immagine predefinita
Carletto Romeo
Presentatore radiofonico e televisivo, attore tv, cinema, teatro. Blogger e webmaster "autodidatta". Scrittore... da sempre! Ma non l'ha mai detto "pubblicamente" a nessuno! E... Mi raccomando! Anche tu che stai leggendo, non lo fare!

Lascia una risposta

Carletto Romeo