Gli LLM distruggono la fiducia reciproca in azienda?

Ce l’ha insegnato anni fa Richard Sennett. La collaborazione e il successo delle aziende si fonda anche sulla costruzione di meccanismi rituali secondo precise regole. Abbiamo imparato a progettare momenti e spazi di ritualità all’interno della normale attività organizzativa, ma anche in processi di innovazione Lean, Agile e di Design Thinking.

Molti aspetti della vita aziendale sono veri e propri rituali. Dalle riunioni ai meeting alle video call, dagli step dello Scrum alle Kaizen week del Lean Thinking e così via. Sono momenti strutturati, cadenzati, simbolici. Vere e proprie messe in scena cui “credere” per collaborare con gli altri. Per comprendersi reciprocamente. Scandiscono il ritmo del lavoro. Costruiscono la fiducia e la collaborazione tra colleghi. Secondo Erving Goffman, la fiducia nella sincerità degli altri è uno dei pilastri fondamentali della vita sociale. Quando questa fiducia viene meno, l’interazione rituale perde il suo significato. Ma con l’avvento dei grandi modelli linguistici (LLM), come ChatGPT, molti di questi rituali possono essere automatizzati.

L’effetto di ChatGPT sulla fiducia

Ethan Mollick sottolinea che l’uso degli LLM migliora notevolmente l’efficienza aziendale, accelerando la stesura di email standard, rapporti e dichiarazioni. E questo potrebbe però portare le persone a dubitare dell’autenticità di queste interazioni, percependole come “meccaniche”. Marion Fourcade ci dice che questi cambiamenti “possono separare la cerimonia dalla riflessione, minando le fondamenta stesse della conoscenza e della fiducia”. Le lettere di referenza del manager o le revisioni tra pari della scienza, ad esempio, rischiano di perdere valore se sospettiamo che siano generate da un algoritmo.

Il vero dilemma è quindi l’equilibrio tra efficienza e autenticità. Se i rituali servono solo a confermare procedure aziendali, la tecnologia può funzionare egregiamente. Ma quando la fiducia viene messa in dubbio, anche il più piccolo gesto potrebbe perdere di valore. Come ci avverte Goffman, “mantenere una facciata senza crederci davvero può portare a una forma di alienazione che minaccia la coesione sociale”.

Ma meritiamo la fiducia?

Un’ultima considerazione però sorge naturale. Se si è disposti, pigramente, a confermare un elaborato generato da LLM, inviandolo a proprio nome senza controlli e validazioni, significa che già a monte il valore in quel contenuto non era ritenuto degno di un approfondimento personale. Forse quindi bisogna risalire al vero perché nella figura manageriale prima di accanirsi su un sintomo che ha altre cause…

Il World Economic Forum ha detto che all’uomo rimarranno tre grandi aree dove continuerà a primeggiare sulle macchine: la risoluzione creativa dei problemi, la collaborazione e la validazione. Queste attività, che richiedono un approccio flessibile e l’abilità di muoversi tra frame diversi, rimarranno probabilmente centrali nell’essere umano, mentre le tecnologie di intelligenza artificiale generativa (GenAI) si occuperanno sempre più di compiti sintattici che coinvolgono qualsiasi forma di linguaggio, sia esso naturale, matematico o computazionale.

Tra le aree destinate all’uomo, la validazione emerge come particolarmente critica, poiché implica la responsabilità umana di verificare e confermare le decisioni e le azioni basate sull’intelligenza artificiale, garantendo così l’affidabilità e l’etica dei risultati. Vale la pena mappare meglio le nostre attività e capire dove dobbiamo concentrare le nostre capacità umane, in modo da sfruttare al meglio le potenzialità dell’IA mantenendo il controllo e la responsabilità dei processi decisionali più importanti.

Sharazad si impegna ogni giorno ad accompagnare aziende nell’adozione di strumenti tecnologici mettendo sempre al centro la figura umana ed il suo ruolo all’interno di un’organizzazione, perchè crediamo fermamente che la tecnologia sia e rimanga uno strumento al servizio dell’uomo.

1 comment

By stefanoschiavo