Dobbiamo imparare a essere gentili con i nostri robot
La prima volta che ho usato l’Amazon Echo sono rimasto molto confuso. Amazon Echo è un dispositivo a forma di cilindro, “un’assistente” che se ne sta in un angolo, si chiama Alexa e si comanda con la voce. Per esempio puoi dire “ Alexa, metti un po’ di musica!”, oppure “Alexa, un chilo quante once sono?”. Forse parte del mio imbarazzo era dovuto al fatto che l’unica mia amica che possiede un Amazon Echo si chiama proprio Alexa e in quel momento era in casa.
A parte questo, è difficile urlare ordini a una macchina senza avere la sensazione di essere una di quelle persone sgradevoli che abbaiano ordini ai camerieri. A meno che si cominci da piccoli. “Adoriamo la nostra Amazon Echo, ma ho paura che stia trasformando nostra figlia in una stronza maleducata”, ha scritto qualche tempo fa Hunter Walk, un investitore della Silicon valley.
Con Alexa non c’è bisogno di dire “per favore” o “grazie”, anzi: il dispositivo risponde meglio se gli si chiede qualcosa bruscamente. “A livello cognitivo, non sono sicuro che un bambino capisca perché si possono dare ordini ad Alexa ma non a una persona”, ha scritto Walk. Come fa una bambina di quattro anni a imparare che gli altri membri della famiglia non sono semplicemente lì per obbedire ai suoi ordini, quando un membro della famiglia è un dispositivo elettronico progettato esattamente per fare questo?
Questo tipo di preoccupazioni continuerà ad aumentare mano a mano che entreremo in contatto con congegni sempre più umanizzati. Per usare le parole dell’esperto di tecnologia John Markoff: “Come può influire su un essere umano avere a disposizione una classe di schiavi che non sono umani ma che trattiamo come se lo fossero?”.
La maggior parte di noi concorderebbe con Immanuel Kant che è immorale trattare gli altri come semplici mezzi per raggiungere i nostri fini, piuttosto che come fini in se stessi. È per questo che lo schiavismo danneggia lo schiavista quanto lo schiavo: usare una persona come se fosse un oggetto ci sminuisce come esseri umani. Eppure Alexa (come Google Home, Siri, e tutti gli altri) ci abitua a considerarla una persona che è solo lì per servirci. Non cominceremo a vedere più spesso così anche i veri esseri umani?
Se tratto male un commesso, è perché oggi è una giornata storta; se qualcuno mi insulta su Twitter, è perché è una persona orribile
O forse sono solo un burbero convinto – come lo sono state tutte le generazioni della storia – che la società stia diventando più incivile, quando in realtà non è così. A prima vista, questa è la conclusione che si potrebbe trarre da un nuovo studio citato dal blog scientifico Research Digest su come interpretiamo la maleducazione quotidiana.
Probabilmente le persone non stanno diventando più maleducate, sostengono i ricercatori. Piuttosto noi interpretiamo il comportamento degli estranei come più volgare del nostro o di quello dei nostri amici. (Se tratto male un commesso, è perché oggi è una giornata storta; se qualcuno mi insulta su Twitter è perché è una persona orribile). E grazie all’urbanizzazione, alla globalizzazione e a internet, incontriamo più sconosciuti che mai, perciò ci convinciamo, sbagliando, che la maleducazione sia in aumento.
Ma questo forse dimostra un’altra cosa: che è difficile provare empatia, e lo sarà sempre di più. Una cosa è mostrarsi comprensivi quando si passano le giornate solo con parenti e vicini, come succedeva una volta, tutt’altra cosa è esserlo quando siamo costretti a interagire con tanti estranei – nei confronti dei quali abbiamo già qualche pregiudizio – e con diversi congegni elettronici umanizzati, che ci invitano a dar loro ordini senza fare tante cerimonie. Dobbiamo veramente sforzarci per ricordare che gli esseri umani (anche i più orrendi) sono umani. E che i computer (perfino quelli più servizievoli) non lo sono.
(Traduzione di Bruna Tortorella)
Questo articolo è stato pubblicato dal quotidiano britannico The Guardian.