immagine-preview

Feb 26, 2019

Innovazione, fintech e inclusione finanziaria: intervista con Allegra Canepa

Abbiamo incontrato Allegra Canepa, Professore Associato di Diritto dell’Economia all'Università degli Studi di Milano per parlare con lei di inclusione finanziaria e innovazione fintech nell'Unione Europea

Il sistema europeo favorisce l’innovazione fintech? In che modo? Quali sono gli per le startup in questo ambito? Abbiamo incontrato Allegra Canepa, Professore Associato di Diritto dell’Economia all’Università degli Studi di Milanodove insegna Teorie e principi della regolazione. Regolazione dell’innovazione e del rischio, Diritto dell’economia e Diritto dell’informazione progredita modulo sui mercati digitali. Inoltre, è coordinatore del corso di perfezionamento in “Innovazione tecnologica nuovi mercati e regole. L’impatto sui mercati finanziari di operatori multi-settore, piattaforme digitali e tecnologia blockchian” presso la medesima università nonchè autore di diverse pubblicazioni in materia.

 

L’intervista

Quali sono gli elementi che, a suo parere, dovrebbero essere messi in campo in ambito europeo per spingere l’innovazione nell’ambito del fintech?

Attualmente esistono una serie di criticità che possono incidere e che saranno esaminate in modo puntuale nel prosieguo del discorso. Sicuramente uno degli elementi centrali è la questione delle risorse disponibili inteso sia come canali di finanziamento che come possibilità di incentivazione. Direi che però la questione centrale per lo sviluppo dell’innovazione nel settore finanziario (e non solo) è quella di come regolare e perseguendo quali finalità.

 

 

Il mercato fintech europeo si rivela ideale all’ingresso di startup? Oppure ci sono ostacoli/elementi che andrebbero cambiati?

Nel mercato europeo sussistono ancora alcune criticità da affrontare individuabili principalmente nella difficoltà di reperimento di risorse, nella necessità di rafforzare la sicurezza  tecnologica e informatica (cybersecurity) del sistema finanziario e nella necessità di garantire certezze sul quadro regolatorio.

In particolare sul primo aspetto, viste anche le difficoltà create dalla crisi finanziaria, l’Unione Europea ha già avviato una riflessione con l’adozione di iniziative quali la Capital Markets Union per cercare di favorire anche l’individuazione di canali di finanziamento alternativi a quelli classici (come ad es. il crowdfunding). Gli altri due aspetti possono rappresentare un ostacolo allo sviluppo ed all’affermazione di nuovi soggetti nel mercato, in quanto possono scoraggiare le decisioni di investimento o risultare poco appetibili per fasce di utenti poco inclini a sperimentare servizi offerti con modalità nuove perché preoccupati dei rischi. Il riferimento è in particolare ai rischi relativi alla sicurezza, all’affidabilità di questi soggetti (trasparenza e piena correttezza nei confronti dei clienti) ed alla tutela dei loro dati (privacy, rischio di perdita o utilizzo improprio dei dati dei clienti, accesso non autorizzato da parte di terzi, ecc.).

 

In Europa sono stati avviati alcuni spazi virtuali per l’innovazione come le sandbox, dove stakeholder, istituzioni e agenzie normative possono discutere dei passi necessari per rendere più disruptive il mercato. Pensa che potrebbe essere funzionale,all’interno di questi spazi, iniziare a dialogare anche con gli utenti finali, in un’ottica di migliore inclusione finanziaria degli stessi e sviluppo di un mercato più consono anche alle loro esigenze?

In questa fase, il ricorso ed il supporto offerto da una sandbox è quello di permettere di sperimentare migliorando la comprensione da parte delle imprese delle aspettative normative e di vigilanza , aumentando la conoscenza delle autorità competenti in merito alle innovazioni nonché alle opportunità e ai rischi che presentano. Interessanti dati sui risultati e sugli effetti positivi che possono derivare da queste sperimentazioni, anche in termini di interazioni con gli utenti, sono emersi proprio dall’ESAs Report 2018 “Fintech regulatory sandboxes and innovation hubs” laddove si evidenzia però come sia fondamentale che tutti i consumatori a cui un prodotto o servizio sarà fornito nel contesto della proposta da sottoporre a test (siano essi clienti al dettaglio o istituzionali) siano adeguatamente tutelati. I mezzi di protezione appropriati varieranno da caso a caso a seconda della natura della proposta in esame e dei clienti coinvolti. Ciò può significare  ad es. fornire comunicazioni chiare che spieghino la natura del test e le implicazioni per i consumatori in modo che i consumatori possano prendere decisioni consapevoli riguardo alle proposte soggette a test, una pianificazione relativamente al trattamento in uscita (ad esempio in caso di interruzione della proposta soggetta a test) nonché misure di risarcimento o risarcimento nel caso in cui si dovessero subire danni nel contesto delle prove.

 

Il protagonista del fintech è chiaramente l’argoritmo che può determinare l’inclusione e l’esclusione finanziaria di una certa fetta di pubblico. È possibile, secondo lei, cercare di porre delle basi etiche circa gli algoritmi sottostanti all’ambito fintech, affinché ogni tipo di esclusione (laddove l’alto limite per l’ente finanziario di rischio non giustifica nettamente l’esclusione) possa venire attuata? Sono già stati attuati piani di questo tipo o è a conoscenza di disegni normativi che potrebbero regolare questo aspetto?

Quando si valutano i fattori etici in relazione ai sistemi decisionali algoritmici è necessario tenere presente  che non esistono ancora modelli e procedure di certificazione stabiliti che possano affrontare espressamente considerazioni etiche, tra cui pregiudizi e trasparenza, nel dominio degli algoritmi. Ciò è in parte dovuto alla mancanza di standard esistenti su questi temi. Alcune iniziative segnalano la necessità di una riflessione su questi temi (es. l’iniziativa globale IEEE per le considerazioni etiche nell’intelligenza artificiale e nei sistemi autonomi o le linee guida del gruppo europeo di esperti del 18 dicembre scorso) tuttavia il percorso non appare semplice. Sulla questione però può essere interessante sottolineare come l’obbligo per i responsabili del trattamento di fornire agli interessati “informazioni significative sulla logica coinvolta” in un processo decisionale automatizzato (introdotto dal regolamento sulla protezione dei dati – GDPR) può essere utilizzato per cominciare a parlare di un’etica algoritmica. Certamente, anche seguendo questa strada, cercare di rendere più chiare le ipotesi incorporate nell’algoritmo o divulgare il codice del sistema o le informazioni sulla sua logica può non essere un percorso semplice alla luce della disciplina sulla proprietà intellettuale. Una possibile soluzione “di mediazione” potrebbe essere quella di prevedere obblighi di disclosure solo nei confronti delle Autorità sul modello di quanto stabilito per il trading algoritmico dalla direttiva Mifid II.

 

Rimani sempre aggiornato sui
temi di StartupItalia!
iscriviti alla newsletter