• User

    Per una Intelligenza Artificiale Europea

    Con un gruppo di attivisti/e stiamo pensando di proporre una ECI (European Citizen Initiative) sul tema dell'intelligenza artificiale. Mi piacerebbe molto sapere quali sono le vostre idee e le vostre preoccupazioni su questo argomento.
    Tenete presente che è una bozza ancora molto embrionale e proprio per questo vorrei l'opinione di un gruppo di esperti come voi. Senza entrare in tecnicismi, quali sono i principi/etiche che vorreste fossero assicurati in una AI Europea? Quali sono i pericoli che bisogna assolutamente evitare?

    Title: For a European Artificial Intelligence: open and at the service of democracy

    We ask the Commission to develop an open artificial intelligence system, at the service of the right to knowledge and democracy.
    We call for the creation of a "Large Language Model" system that is open source, trained on the basis of the documents of the public administrations of the Member States and the EU, such as legislation, case law, cultural and scientific heritage...

    An application will consist of a virtual assistant to help citizens in their dealings with the EU and states. The service will improve knowledge of the rules and facilitate democratic participation, allowing everyone to interact in simple and not necessarily technical language. The model will also be able to be integrated upstream in the regulatory process, assisting the legislator in the writing of rules.

    REASONS
    The recent advances shown by generative AI, especially Large Language Models (LLM), suggest a huge impact on productivity. In "The economic potential of generative AI" McKinsey estimates the value generation potential for the industry at between 2.6 trillion and 4.4 trillion.
    Among the various risks accompanying the diffusion of these technologies are that of increased inequality due to the possibility or otherwise of access and that implicit in the oligopoly of model development and ownership. As LLMs spread, integrating their functions into a multitude of products, often imperceptibly to the end user, the possibility of having transparent control over the models and training sets used for training will become increasingly important in order to better understand how the system works.
    The Commission's contribution is necessary because LLMs have been shown to improve performance as they increase in size, and the cost of training increases accordingly; for example, OpenAI CEO Sam Altman told the press that GPT-4 training cost more than $100 million. It seems clear, therefore, that in order to be internationally competitive, investments of at least this order of magnitude are needed, which are more easily achieved on a European scale.

    The governance of the management and development of the model must reduce the risk of interference by commercial interests or state control and can be achieved through a non-profit organisation or foundation.


    giulio.marchesi 1 Risposta
  • User Attivo

    @kejsirio tanta roba l'idea, complimenti per l'iniziativa!
    Beh che dire, oggi se ne parla così tanto, fra regolamentazione, etica vs innovazione (vedi in generale il disallineamento, diversa visione delle cose fra Europa e USA). A parte i soliti temi generali più scontati (rispetto nel trattamento dei dati, trasparenza nelle informazioni, ecc), ciò che ritengo interessante da valutare è questo:

    • equità orizzontale vs verticale (spesso anche indicato come uguaglianza vs equità 😞 con equità orizzontale intendo "trattare tutti allo stesso modo, in termini assoluti", mentre con equità verticale intendo "trattare ognuno con un metro relativo a seconda del contesto": ad esempio una regolamentazione rigida è già stato evidenziato che andrebbe a colpire le PMI, a vantaggio dei soliti big; se Google, OpenAI ecc devono dotarsi di un team di legali e un team di analisti per regolamentare il loro prodotto, lo possono fare, mentre per una piccola azienda, startup, generalmente sarebbe improponibile. Quindi occorre un approccio basato sull'impatto che il prodotto/servizio può avere (per tipologia di applicazione, copertura stimata di utenza, <<regole in base alla potenza del modello IA>>) e in base a quello fissare dei livelli di regolamentazione, con requisiti e metodologie differenti
    • impatto su temi controversi: leggevo di recente nel libro Ethics of Artificial Intelligence (Springer) alcuni spunti davvero interessanti, l'IA generativa anche come strumento di supporto psicologico ben oltre ciò che intendiamo etico e anche legale, ambito CSAM, varie applicazioni inerenti alla sessualità, violenza ecc; qui il tema è piuttosto complesso, da un lato bandire questi usi significa "facciamo finta che il problema non esista", lavandosene le mani di fatto, dall'altro occorre valutare e pesare attentamente pro e contro di una scelta che potrebbe (dico potrebbe) significare: ciò che ti è concesso fare col software (o anche misto software/hardware, in un futuro non troppo prossimo, probabilmente) è un modo per soddisfare un impulso che nella nostra attuale società non sarebbe certamente ben visto e di fatto consentito; se un comportamento "inaccettabile" è consentito nel virtuale, potrebbe essere una soluzione preventiva perché tale comportamento non abbia ripercussioni nel mondo reale! Ovviamente riguardo a questi temi è bene che ci sia un'attenta analisi e valutazione di psicologi, sociologi, allo stato attuale temo però che per la società sia più semplice lavarsene le mani. Poi anche più in generale, sia per quanto detto sia per un discorso di "libera espressione", è chiaro che molte persone, sia utenti che sviluppatori, vorrebbero "dei chatbot senza censura": a livello sociale, che impatto avrebbe la cosa? "Chatbot non censurati" totalmente liberi nelle risposte ma anche nelle modalità di utilizzo (trattamento dati ecc), oppure richiedere comunque il rispetto di una regolamentazione di base. Personalmente credo che sia più funzionale (utilità collettiva) trovare un compromesso, dato che con la diffusione di una tecnologia non eliminerai mai le alternative, vedi la diffusione online di materiale protetto da copyright, bloccato un contenuto, bloccato un sito, sta di fatto che il mondo è talmente decentralizzato che ad imporre limiti rigidi non si potrà mai risolvere definitivamente un problema

    KejSirio 1 Risposta
  • User

    @giulio-marchesi grazie per la risposta e per il tempo che hai dedicato alla questione. Vale moltissimo, credimi!

    Mi devo scusare per essere stato poco chiaro nella presentazione; l'obiettivo che abbiamo in mente non sono molto le "regole per l'I.A.", che sono un campo già molto battuto, sul quale anche la UE ha una legislazione in fase di approvazione, ma un intelligenza artificiale pubblica europea, al servizio dei cittadini e della democrazia.