lunedì 19 febbraio 2007

Third Meeting of the Italian Network for the Philosophy of Mind and Cognitive Sciences

Il 31 maggio e il 1 giugno 2007 ci sarà presso la Facoltà di Filosofia (Palazzo Arese-Borromeo, Cesano Maderno) dell'Università Vita-Salute San Raffaele di Milano il Terzo Convegno del "Coordinamento nazionale di filosofia della mente e delle scienze cognitive".

Quest'anno il tema sarà Evoluzione, Cultura e Cognizione.

Per saperne di più vai al sito del Coordinamento nazionale di filosofia della mente e delle scienze cognitive.

sabato 17 febbraio 2007

Rodney A. Brooks, Cambrian Intelligence. The Early History of the New AI, The MIT Press, 1999

Raccoglie 8 articoli (capitoli) - 4 più tecnici e 4 più filosofici - scritti tra il 1985 e il 1991, per spiegare il nuovo approccio, basato sul comportamento, alla robotica (behavior-based robotics).
I più interessanti e citati mi sembra che siano: il primo “A Robust Layered Control System for a Mobile Robot”, il terzo (con Maja Mataric) “Learning a Distributed Map Representation Based on Navigation Behavior”, e il quinto “Intelligence without Representations”. La lettura dei singoli capitoli è indipendente quindi il tutto è un po’ ripetitivo, ma più chiaro.

Continuo è il confronto tra l’IA classica o tradizionale e la nouvelle IA o IA fondamentalista o basata sul comportamento o pianificazione reattiva.
  • L'IA tradizionale ha cercato di realizzare sofisticati ragionamenti in mondi ipersemplificati. Sperando di riuscire un giorno ad estenderli a mondi reali.
  • La nuova IA cerca di realizzare compiti meno sofisticati, ma più solidi e in mondi reali. Sperando di riuscire ad arrivare un giorno a compiti più complessi.
La differenza fondamentale sta nel modo in cui viene analizzato/scomposto il problema della creazione di un agente intelligente.


L’approccio tradizionale all’IA
  • Scomposizione del problema dell’intelligenza in moduli funzionali, per es.:
    • percezione,
    • creazione di un modello interno,
    • elaborazione/pianificazione
    • controllo motorio
    • ossia modello SMPA (Sense-Model-Plan-Action). Scomposizione orizzontale: l’informazione fluisce dall’ambiente, via i sensi, al robot, e poi di nuovo, tramite l’azione, all’ambiente.
  • Il legame tra input (percezione) e output (azione) non è diretto ma mediato da un sistema centrale di elaborazione.
    • Ci può essere una lunga catena di moduli tra percezione e azione.
    • Nessun modulo di per sé produce un comportamento.
  • Ogni modulo passa al successivo delle informazioni simboliche. Il sistema centrale di elaborazione è un manipolatore di simboli.
  • Il sistema centrale di elaborazione dispone di una rappresentazione completa ed esplicita del mondo in cui agisce.
  • In genere il compito dei moduli percettivi è quello di fornire una mappa tridimensionale al modulo centrale di elaborazione
    • per es., passare da un’immagine bidimensionale a una mappa tridimensionale.
  • Il buon funzionamento dei moduli precedenti è essenziale per il funzionamento di quelli successivi. Ma la disponibilità di un modulo “ottimale” precedente può essere presunta o posposta e concentrare lo studio su un modulo successivo.
  • Il “mondo” in cui i robot agiscono possono essere iper-semplificati o simulati.
    • Fiducia nella possibilità di estendere al mondo reale i risultati positivi ottenuti in mondi semplificati.
  • Tendenza a concentrarsi su compiti di alto livello con un grosso impegno computazionale a carico dell’elaboratore centrale (ragionamento). Tendenza a sottovalutare le difficoltà dell’estensione delle performance di sistemi di percezione semplificati a quelli con sistemi percettivi più complessi.

Esempi importanti di robot mobili costruiti secondo il modello tradizionale all’IA
  • Shakey – Stanford Research Institute – 1966-1972
  • Copy-demo – MIT
  • CART – Stanford

Problemi con i robot mobili costruiti dall’IA tradizionale
  • I mondi in cui si muovono sono artificiali:
    • ambienti volutamente ipersemplificati: oggetti come semplici poliedri, facce colorate, spigoli e intersezioni di piani evidenziati, luce artificiale, ecc.
    • ambienti statici
  • Si è rivelato molto difficile estendere i successi ottenuti nei mondi ipersemplificati a casi più complessi e realistici.
  • Spesso non sono situati e incorporati e le loro prestazioni sono solo simulate.
    • Ciò impedisce di avere un robot completamente funzionante a dimostrazione della correttezza dell’analisi e della sintesi svolta.
    • Può indurre in false illusioni sulla bontà della strada intrapresa.
    • Può costringere, se le cose non vanno come sperato, ad una completa ridefinizione del lavoro.
  • La costruzione di modelli interni del mondo
    • Impiega la maggior parte delle risorse computazionali del robot (sensi e modellizzazione)
    • Si scontra con il frame problem e l’impossibilità di dare una descrizione completa di ogni aspetto della realtà.
  • Tendono a servirsi di risorse di calcolo e di energia molto alte.
    • Hanno algoritmi di ricerca molto esigenti
  • Operano con tempi molto più lenti di uomini e animali.
  • Non sono molto robusti in caso di imprecisione e/o conflittualità dei sensori.
  • Appaiono biologicamente implausibili


La nuova IA
  • Scomposizione del problema dell’intelligenza in moduli comportamentali, per es.:
    • evitare oggetti
    • vagare senza meta
    • esplorare
    • pianificare
    • ecc.
    • La scomposizione è verticale: per ogni modulo, l’informazione ricavata dall’ambiente, via i sensi, genera direttamente un’azione; senza bisogno di passare per un modulo centrale di elaborazione.
  • L’analisi o scomposizione del problema non è basata sul presunto funzionamento interno del sistema, ma sul comportamento esterno desiderato.
    • Vengono individuati dei livelli di competenze che il robot deve avere
    • e vengono costruiti dei moduli in grado di implementarli.
  • L’Architettura della Sussunzione (Subsumption Architecture)
  • Ogni modulo o layer o strato genera direttamente un comportamento particolare.
  • Ogni layer è indipendente dall’altro, funziona in modo asincrono rispetto agli altri e comunica con con gli altri attraverso canali a banda lmitata.
  • I layer sono costruiti, e messi completamente alla prova (debugged), in modo sequenziale, partendo da quelli che generano i comportamenti più elementari.
    • Una volta che il layer viene giudicato soddisfacente, non viene più modificato.
  • I layer più complessi poggiano su quelli più semplici, ma non li richiamano come subroutine
    • I layer inferiori seguitano a svolgere i loro compiti specifici anche in presenza di quelli superiori;
    • I robot sono costruiti in modo incrementale, come una serie di layer, che aggiungano comportmaenti a quelli già implementati.
  • Ogni layer corrisponde a un processore o una Macchina a Stati Finiti
    • dotata di registri e timers
    • ricevono e spediscono messaggi, senza handshaking; i messaggi possono essere persi o non usati.
    • Non esiste una memoria centrale
    • L'arrivo di un messaggio o lo scadere di un tempo può far scattere un comportamento.
  • Ogni Macchina a Stati Finiti è una AFSM (Augmented Finite State Machine) cioè ampliata dal fatto gli input che arrivano ad un livello possono essere soppressi o che gli output che ne escono possono essere inibiti da un livello superiore.
  • I layer sono collegati da meccanismi di soppressione (suppression) e inibizione (inhibition). Da qui il nome di subsumption architecture.
    • Nel caso della soppressione c'è un filo collegato all'input della ASFM (ogni nuovo messaggio rimpiazza il precedente).
    • Nel caso dell'inibizione il collegamento avviene sul output (un messaggio sull'output, lo inibisce per un tempo fissato).
  • Ogni layer persegue un proprio obiettivo e quindi ci può essere una conflittualità di scopi che viene risolta senza l’intervento di un’unità superiore.
  • I sensori non generano un modello unico e centrale dell’ambiente.
    • Ogni modulo ricava dal mondo le informazioni necessarie a svolgere il proprio compito
    • Può esistere una notevole ridondanza informativa.
    • Le rappresentazioni non sono centralizzate ma distribuite e implicite.
  • Non è neccessario un modulo centrale di controllo.

Principi guida della behavior based robotics
  • Comportamenti complessi non sono prodotti necessariamente da sistemi complessi.
    • Spesso la complessità sta nell'occhio dell'osservatore, non nel sistema osservato.
  • I robot si devono muovere in mondi tridimensionali, dinamici e non artificiali
  • I robot sono situati nel mondo; non hanno a che fare con descrizioni astratte, ma con il “qui” e l'”ora” dell'ambiente che influenza direttamente il comportamento del sistema.
  • I robot sono incorporati e hanno esperienze dirette del mondo.
  • L'intelligenza dei robot deve
    • reagire agli aspetti dinamici dell'ambiente
    • operare su scale temporali simile a quella degli umani e altri animali,
    • generare un comportamento coerente e robusto anche di fronte a dati sensoriali incerti, ambiente non prevedibile e mutevole.
  • Il comportamento del robot deve essere effettivamente svolto nel mondo reale e non solo simulato.
  • I robot devono fare qualcosa nel mondo. Deve poter svolgere anche diversi compiti potenzialmente concorrenziali.
  • Non è neccesario un modulo centrale di controllo.
    • Il sistema può essere considerato come un'agenzia di agenti ognuno solipsisticamente impegnato nel suo compito.
    • Il sistema centrale dell'intelligenza o core AI è una illusione non necessaria e può essere un ostacolo nella costruzione di un robot.
  • Un sistema di controllo centrale o una rappresentazione centrale esiste solo nell'occhio dell'osservatore che li attribuisce ai robot. In essi c'è solo un insieme di comportamnti concorrenziali. Dal caos delle loro interazioni emerge , nell'ochio dell'osservatore, una coerente sequenza comportamentale. Non esite un locus centrale con scopi. Minsky The Society of Mind.
  • L'intelligenza nasce dal giusto accoppiamento tra percezione e azione.
  • E' necessario un approccio bottom-up all'intelligenza.
    • Costruire sistemi intelligenti completamente funzionanti ad ogni livello
    • Lasciare agire il sistema nel mondo reale ad ogni levello
    • Dedicare attenzione alle interfacce.
    • Analogia con l'evoluzione biologica.
  • Le attività di basso livello, svolgendosi senza rappresentazioni, possono reagire in modo rapido ai mutamenti ambientali.
    • L'idea è: dai un'occhiata rapida al mondo spesso, aggiorna i cambiamenti e soffermati solo su ciò che è importante.
  • Le performance di queste creature posso decadere a causa di qualche malfunzionamento, ma dal momento che svolgono molteplici attività in parallelo, questi guasti non provocheranno un blocco totale del sistema ma solo un degrado di alcune delle sue prestazioni.
  • A differenza del connessionismo che cerca di far emergere delle rappresentazioni distribuite dal network, nella behavior-based robotics si cerca di non avere rappresentazioni.
  • L'ipotesi simbolica su cui si basa l'IA classica è profondamente errata e impone limiti severi sulla propria progenie.
    • Simon, H. A., The Sciences of the Artificial, MIT Press, 1969, Cambridge, Massachusetts,
    • L'intelligenza opera su un sistema di simboli. L'elaboratore centrale è sensibile solo alla forma dei simboli non al loro significato. I simboli rappresentano entità del mondo.
    • Ma qual è la corretta descrizione simbolica del mondo? Tale descrizione dipende dal compito. Impossibilità di costruire una rappresentazione completa. Frame problem. Non è possibile ipotizzare qualcosa che non è esplicitamente affermato.
  • Non sarebbe corretto afferamre che non ci sono rappresentazioni, non ci sono rappresentazioni esplicite; i layer utilizzano solo gli aspetti rilevanti del mondo.

Lo stile di analisi dell'IA tradizionale può essere rappresentato da questo diagramma originale di Brooks, in cui la catena causale va dal mondo alla PERCEZIONE, che fornisce un modello completo del mondo alla parte davvero intelligente del sistema rappresentato dalla COGNIZIONE, per poi rifluire sul mondo tramite l'AZIONE:
Mentre lo stile di analisi della nuova IA può essere rappresentato dal seguente diagramma, sempre di Brooks, in cui tutto il lavoro viene svolto direttamente dai sistemi della PERCEZIONE e dell'AZIONE, mentre la COGNIZIONE è qualcosa che un osservatore esterno può attribuire al sistema:


Alcuni robot mobili costruiti da Brooks e colleghi all'Artificial Intelligence Laboratory del MIT


  • Allen (1° cap. “A Robust Layered Control System for a Mobile Robot”, 1986)
    • sensori radar, onboard odometria, offboard Lisp Machine
    • 1° Layer: evita ostacoli statici e dinamici
    • 2° Layer: vaga senza scopo
    • 3° Layer: guarda (con il sonar) un punto lontano e si dirige verso di esso

  • Genghis (2° Cap “A Robot That Walks: Emergent Behavoir from a Carefully Evolved Network”, 1989)
    • robot di 1 kg, cammina con 6 zampe su terreno accidentato e segue esseri umani.
    • Usa 12 motori, 12 sensori d forza, 6 sensori piroelettrici, 1 inclinomentro e 2 “baffi”
    • Lo scopo era dimostrare che fosse possibile costruire incrementalmente un sistema complesso che integrasse diversi input sensoriali e output motori in modo reattivo e con scarsa cordinazione centrale.

  • Toto (3° Cap “Learning a Distributed Map Representation Based on Navigation Behavior”, 1990)
    • Toto è stato costruito per dimostrare che l'approcio basato sul comportamento alla robotica fosse in grado di produrre un robot con scopi a lungo termine dinamicamente modificabili e agire come se avesse piani e mappe interne.
    • La domande a cui si è cercato di dare una risposta pratica sono:
      • All'interno della metodologia di controllo decentralizzata è possibile incorporare qualcosa come le mappe – normalmente ritenute come risosrse centralizzate – senza compromettere l'eleganza dell'architettura basta su layer incrementali?
      • L'idea di mappa come risorsa centralizzata è davvero necessaria? Non si potrebbe costuire una mappa decentralizzata?
    • Toto è completamente autonomo, consiste di una base circolare di 30 cm con tre ruote; sulla base è montato un cilindro più stretto e alto circa 30 cm e dotato di 12 sensori ad ultrasuoni. Come unico altro sensore ha una bussola. Microprocessore e batteria sono onboard.
    • La mappa di Toto è interna, attiva e distribuita.
      • Gli elementi che rappresentano porzioni di spazio sono anche gli elementi che guidano l'azione del robot.
      • Nel corso della sua esplorazione dell'ambiente, il robot associa al proprio comportamento i tratti distintivi dell'ambiente.
      • Non c'è distinzione tra ragionamento e mappa. La mappa è il sistema di ragionamento.
      • Non c'è distinzione tra mappa e uso della mappa (rappresentazione e uso della rappresentazione).
    • I piani che vengono attribuiti a Toto non esitono mai nella loro interezza come strutture di dati, ma si dispiegano pian piano grazie all'interazione del robot con l'ambiente.
    • I layer di Toto:
      1. Vagare evitando collisioni
        • il robot di vaga senza meta, tenendosi vicino ai bordi degli oggetti
        • grazie a tre soglie di distanza (zona di pericolo, minima distanza sicura, distanza per seguire bordo). Il robot evita la zona di pericolo, sta vicino alla minima distanza di sicurezza, e sta all'interno della distanza per seguire i bordi di un oggetto che sta tracciando.
      1. Rilevare i tratti caratteristici dell'ambiente
        • muri e corridoi
        • si basa sul fatto che il livello precedente di Toto, gli fa produrre un percorso lungo i confini di un oggetto.
        • Il tratto identificativo dell'ambiente è estratto dal comportamento.
          • Per es,: un percorso nella stessa direzione (bussola) con la rilevazione laterale (sonar) equivale all'identificazione di un muro.
          • Dati spuri sono eliminati
          • Letture ripetute e coerenti dai sensori incrementano la fiducia nel tratto rilevato.
      1. Apprendimento di mappe e pianificazione del percorso
        • I tratti ambientali sono memorizzati in una mappa.
        • La mappa è un grafo lineare
        • Ogni nodo del grafo è un comportamento
        • Ogni comportamento è generato da un insieme di AFSM.
        • Ogni nodo è un agente indipendente che collega determinati input ad output appropriati.
        • La topologia è fissa e stabilita staticamente; all'inzio al robot viene fornita una mappa vuota.
        • Apprendimento:
          • l'attuale tratto/comportamento rilevato viene trasmesso all'intero grafo
          • l nodo corrispondente alla posizione attuale viene attivato,
          • se non c'è corrispondenza viene ritenuto nuovo e immagazzinato.
          • Il nodo attivato avverte i vicini. Genera aspettative.
        • Trovare un percorso e seguirlo.
          • Il nodo da raggiungere manda segnali
          • Si crea una catena di attivazione tra il nodo da raggiungere e quello attuale.
          • Il robot non 'conosce' il nodo finale da raggiungere ma solo quello prossimo.

  • Squirt è il mio favorito:
    • pesa 50 grammi, è dotato on board di batterie e di un computer a 8 bit, tre sensori e un sistema di propulsione.
    • Si comporta come un insetto. Vaga sensa meta alla ricerca di luoghi oscuri in cui si nasconde, fino a che un rumore lo distoglie dalla sua quiete, e dopo un po' che il rumore è scomparso si dirige verso il luogo da dove era venuto, per poi di nuovo acquattarsi all'oscuro in quei paraggi.

Altre osservazioni interessanti
  • Agre e Chapman (Agree, Philip E. and David Chapman (1990). What are plans for? Robotics and Autonomous Systems 6:17-34.) sostengono che la maggior parte del tempo la gente non è impeganta nel fare piani ma nell'agire in modo routinario in un mondo relativamente benigno ma ma mutevole. Inoltre l'agente interagisce con gli oggetti del mondo non tramite una rappesentazine simbolica di essi, ma tramite l'azione diretta.
  • Kaebling, L.P. & Rosenschein, S.J (1990), “Action and Planning in Embeddedd Agents”, Robotics and Autonomous Systems 6 (1,2), 35-48, sottolineano che un osservatore può leggittimamente parlare di credenze e scopi dell'agente, anche se l'agente non deve necessariamente manipolare simboli.
  • Influenza di Minsky “Society of Mind” (1986) sulla behaviour based robotics
  • E' istruttivo riflettere come l'evoluzione ha impiegato il suo tempo nella costruzione degli esseri biologici.
    • entità unicellulari: 3.5 miliardi di anni fa
    • prime piante: 2.5 miliardi di anni fa
    • primi vertebrati: 1 miliardo di anni fa
    • rettili: 370 milioni di anni fa
    • dinosauri: 330 milioni di anni fa
    • mammiferi: 250 milioni di anni fa
    • primati: 120 milioni di anni fa
    • scimmie antropomorfe: 18 milioni di anni fa
    • ominidi: 5 milioni di anni fa
    • agricoltura: 10 mila anni fa
    • scrittura: 5 mila anni fa
  • Questo ci suggerisce che il ragionamento, il linguaggio, e le altre capacità superiori sono facili da realizzare una volta che abbiamo degli esseri in grado di reagire in modo appropriato all'ambiente. E che proprio la costruzione di esseri appropriatamente reattivi ai cambiamenti dell'ambiente la parte difficile, visto che è lì che l'evoluzione ha impiegato la maggior parte del suo tempo.
  • (Osservazioni simile e più argomentate dovrebbero essere in H. Moravec, "Locomotion, Vision and Intelligence," Robotics Research - The First International Symposium, MIT Press, 1984, pp. 215-224)
  • Sia i fautori che i detrattori dell'IA hanno la tendenza ad usare in modo erroneo un potente strumento: l'astrazione. Se un problema viene risolto, i detrattori sostengono che poichè è risolvibile tramite un algoritmo allora non era un vero problema di intelligenza; se non si sa come affrontare un problema (per es. aspetti percettivi e motori), allora i sostenitori dell'IA affermano che non è un vero problema dell'IA. Questi invece sono i veri e difficili problemi dell'IA e il modo in cui vengono affrontati e risolti determina il successivo lavoro.
  • Semantica. All'inizio la IA classica ha affrontato problemi semantici riducendo la complessità del mondo in cui i sui sistemi agivano: “blocks world” ipersemplificato; poi si è pensato di spostarsi nel mondo reale ma di semplificare la rappresentazione interna del mondo, prendendo in considerazione esplicita solo gli aspetti fondamentali del mondo (cfr. Idee di Platone). Semplificando di nuovo la semantica. Ma questa semplificazione da chi è fatta? Da i programmatori non dal sistema. Quindi siamo ancora in un mondo giocattolo.
  • Non c'è una divisone chiara tra percezione (astrazione) e ragionamento.
  • Somiglianza ma non ispirazione con le posizioni di Heidegger.
  • Le 'Creature' del MIT Mobile Lab hanno un intelligenza più simile a quella di insetti che a quella di batteri.
  • La percezione è un'operazione attiva che varia a seconda del compito. (cfr. per opposizione Locke)
  • Molto spesso il mondo è un buon mezzo di comunicazione per processi o comportamenti all'interno di uno stesso robot.


Questioni aperte con la behaviour based robotics
  • Quanti layer si possono mettere insieme prima che il sistema diventi troppo complesso?
  • Quanto complesso può essere un comportamento senza rappresentazioni?
  • E' possibile realizzare funzioni di alto livello come l'apprendimento nella topologia fissa delle ASFM?

Osservazioni
  • C'è una grande consonanza tra le posizioni di Minsky, Brooks, Clarks e Dennett. Mentre è chiaro e riconosciuto il debito di Clarks con Dennett; di Brooks con Minsky; mi sembra che Brooks e Dennett non si citino quasi mai e non “si riconoscano”. Anche se stanno ora lavorando insieme al Cog project del MIT. C'è stata un'influenza di uno sull'altro oppure entrambi derivano autonomamente ma similmente da .... Minsky (credo)?
  • Il termine “pianificazione reattiva” (reactive planning) anche se piuttosto brutto è molto significativo perchè lascia trasparire quello che dovrebbe essere il compito della scomposizione dell'intelligenza (dell'azione intenzionale o del libero arbitrio) in parti più semplici (e quindi non a loro volta dotati di intelligenza, azione, libertà) cioè pure reazioni.
  • Questi recenti sviluppi dell'AI rappresentano una qualche rivincita del comportamentismo sul cognitivismo? Ma come il comportamentismo, la robotica basata sul comportamento non si troverà in difficoltà quando dovrà passare da comportamenti estremamente semplici a comportamenti più complessi? Non ci sarà allora necessariamente bisogno di un sistema di rappresentazioni interne esplicite?
  • Più che ingaggiarsi in una guerra di religione (rappresentazioni sì, rappresentazioni no) di posizioni opposte, che sembrano comunque entrambi false, mi sembra che la posizione più ragionevole sia quella di sposare una posizione ecumenica e affrontare il serio problema di individuare il 'momento' e il modo in cui un sistema senza rappresentazioni esplicite riesca a trasformarsi in un sistema con rappresentazione esplicite e simboliche.
  • Che rapporto c'è con la Programmazione Orientata agli Oggetti? Mi sembra che ci sia più di un'assonanza da verificare.
  • Fa un po' impressione notare come i libri citati siano nella stragrande maggioranza interni al campo della robotica, quando alcuni degli stessi temi sono trattati anche in altre ambiti.
  • Libri e articoli da leggere suggeriti da questa lettura:
    • Johnson, M, The Body in The Mind: The Bodily Basis of Meaning, Immagination, and Reason, The University of Chigago Press, 1987, Chigago, Illinois
    • Maes, P. ed., Designing Autonomous Agents: Theory and Practice from Biology to Engineering and Back, MIT Press, 1990, Cambridge, Massachusetts.
    • Moravec, H. P. "Locomotion, Vision and Intelligence" in Brady & Pauls, eds., Proceeding s of the First International Symposium on Robotics Research, MIT Press, 1984, Cambridge, Massachusetts.

venerdì 16 febbraio 2007

Lezione del Prof. Gallese sui neuroni specchio

Ieri (15 febbraio 2007) nell'Aula I di Villa Mirafiori si è tenuta un'interessantissima lezione/dibattito con il Prof. Vittorio Gallese (Università di Parma) su:
La simulazione incarnata: dai neuroni specchio all'intersoggettività
Il tema merita uno studio approfondito. Al più presto.
Mi sembra che mi riguardi soprattutto per:
  • Possibilità di categorizzazioni/concettualizzazioni in assenza di linguaggio.
  • Possibilità di concettualizzazioni a livello di apparato motorio
    • priorità dell'azione
    • non necessarietà di modulo centrale di elaborazione
    • grosse somiglianze con la behavior-based robotics di Brooks.
  • Attribuzione di intenzionalità. teoria e simulazione delle menti altrui.