Questo breve saggio si propone di illustrare come due tradizioni di pensiero, sviluppatesi parallelamente nel corso del ventesimo secolo (fenomenologia e studi di Artificial Intelligence) hanno trovato una forma di convergenza e di “commercio” teoretico nell’ultimo decennio, per il miglioramento della relazione uomo-macchina. Le potenzialità dello sviluppo ontologico delle ricerche fenomenologiche ed i limiti strutturali nelle aspirazioni dell’Artificial Intelligence aprono la strada all’ontologia come tecnologia.
La questione dell’utilità della filosofia, dei suoi possibili vantaggi operativi oltre che teorici, non è un tema recente, come ben ci ricordano le pagine aristoteliche su Talete e sulla nascita della filosofia. D’altro canto è proprio l’inclinazione contemporanea alla perenne ricerca dell’utile a rievocare momenti passati della speculazione metafisica, fino a farli riaffiorare in veste modernissima come espedienti illuminanti della scienza e delle sue nuove acquisizioni. Ci riferiamo con quest’allusiva premessa alla recente riscoperta degli studi ontologici, manifestatasi attraverso la sua singolare aderenza ai progressi dell’ Information Technology.
Molti studiosi, anche inizialmente lontani dagli studi filosofici, negli ultimi sette-otto anni hanno infatti riconosciuto come la ricerca ontologica risulti uno strumento di grande utilità nella progettazione di un "costrutto" in grado di rendere comunicabili tra loro differenti banche dati e di facilitare significativamente la rinnovabilità e l'aggiornamento di un singolo database.
Anche se di primo acchito gli studi sull’essere possono apparire estremamente lontani dalle esperienze di Artificial Intelligence, diversi studiosi vi hanno ravvisato i margini per un proficuo “commercio” teoretico e pratico. L'ontologia nasce da un ragionamento filosofico, e costituisce un'analisi categoriale della realtà, degli oggetti e dei processi che la costituiscono; l'apporto che essa può fornire al knowledge engineering è sostanzialmente differente da quello che è già dato dalla logica; se quest'ultima infatti è prevalentemente orientata allo studio del ragionamento e delle sue modalità, l'ontologia offre gli strumenti analitici per ricercare la natura del mondo e delle cose che ci circondano.
Attualmente lo sviluppo delle ricerche sull'applicazione dell'ontologia al knowledge engineering ha posto l'esigenza di distinguere l'ontologia come tecnologia, cioè come strumento per progettare database, dall'ontologia della tradizione filosofica, la quale, possiamo generalizzare, si costituisce per lo più come analisi "categoriale", e proprio grazie a tale precisazione essa si rivela estremamente vicina alle problematiche che possono sorgere nello studio dell'ontologia come tecnologia. Fino a qualche anno fa, tutti gli studi relativi alla costruzione di sistemi informatici erano improntati, sulla scorta delle esperienze maturate in ambito di Artificial Intelligence, su una concezione della "conoscenza" di tipo "funzionale"; secondo la definizione di Newell, la conoscenza è «whatever can be ascribed to an agent, such that its behavior can be computed according to the principle of rationality» ] . Al contrario, in particolare grazie all'opera di Clancey, recentemente si è approdati ad un approccio di tipo diverso, in base al quale «the primary concern of knowledge engineering is modelling systems in the world, not replicating how people think» . In altre parole, mentre una prospettiva prevalentemente epistemologica trascura di analizzare la maniera in cui il mondo o semplicemente l'oggetto di studio sia costituito e stratificato, la consapevolezza maturata in questi ultimi anni riguardo l'utilità di un'analisi ontologica nella costruzione di un contesto all'interno del quale più database possano comunicare, o nella progettazione stessa di banche dati, ha raggiunto un notevole livello di diffusione .
L'attuale sviluppo tecnologico, con particolare riferimento al web, ha reso il problema dell'integrazione e della comunicazione delle conoscenze di grande importanza, dal momento che nessun sistema può rimanere "isolato". La necessità prima determinata dallo sviluppo della rete è quella di una comunicazione non ambigua attraverso concetti solidamente fondati. In questo senso studi recenti convergono sull’idea che l'ontologia possa svolgere e di fatto svolga un ruolo strategico nella progettazione di sistemi informatici, attraverso l'integrazione di differenti tassonomie e differenti thesauri all'interno di un dominio. L'utilità di tale procedimento emerge in particolare dai settori specialistici, in cui le conoscenze e le terminologie diverrebbero facilmente fruibili dall'utente: «Consequently, ontology is not merely categorial analysis; it is also a technology. In other words, ontology is not just an attempt to clarify concepts. It also serves for the design and the integration of data-bases; it also furnishes methodologies and procedures». In pratica, l’ontologia viene stimata funzionale a divenire il principio guida per la costruzione di un meta-modello che includa e possa mettere in relazione diverse banche dati, nonché a contribuire in maniera fondamentale alla costruzione di un singolo database, ad esempio relativo ad un singolo settore disciplinare.
E' precisamente in questa direzione che va intesa la "sollecitazione" unitaria che viene dagli studi ontologici; così come emerge anche da un recente documento di Chris Partridge, in base al quale possiamo in questo modo schematizzare la funzione dell'ontologia nell'integrazione di database:
Multiple databases (schemas and data) |
---> |
DATABASE INTEGRATION |
---> |
Single unified database
(schemas and data) |
Naturalmente l'applicazione di un'ontologia come tecnologia prevede un lavoro di difficile indagine preliminare relativa al contesto filosofico dal quale essa viene "tratta".
Non abbiamo intenzione in questa sede di ricostruire i numerosi dibattiti sorti tra scuole filosofiche nel corso del ventesimo secolo, né di soffermarci sulle rigide divisioni tra "analitici" e "continentali", in quanto riteniamo che anche alcuni eccessi nelle contrapposizioni hanno poi determinato la diffidenza verso l'approccio filosofico da parte dei non addetti ai lavori. Tuttavia sarà utile rilevare che alcuni pensatori tra la fine dell'Ottocento e la prima metà del secolo successivo hanno contribuito in maniera estremamente significativa ad un processo di avvicinamento tra filosofia e scienza. Franz Brentano (1802-1872) spese gran parte della propria attività di studioso nella ricerca di un fondamento rigoroso per la filosofia, sul modello delle altre scienze, come testimonia il titolo di una delle tesi da lui sostenute per abilitarsi a Würzburg nel 1866: Verae philosophiae methodus nulla olia nisi scientiae naturalis est. Seguirono idealmente lo stesso percorso alcuni dei suoi più noti allievi, come Alexius Meinong ed Edmund Husserl, il quale, ne La crisi delle scienze europee (1936) indicava proprio nella mancanza di comunicazione tra le scienze della natura e la filosofia l'elemento di debolezza della cultura europea. All'interno di quest'importante filone culturale possiamo collocare il maggiore ontologo del Novecento, Nicolai Hartmann .
Se da un lato dunque dobbiamo alla corrente della fenomenologia l'atteggiamento di ricerca non solo di un rigore scientifico nella ricerca filosofica, ma anche di una necessaria comunicazione tra la filosofia e le altre scienze, l'impulso alla creazione dei sistemi informatici ed allo studio delle intelligenze artificiali, deriva da un contesto culturale ben diverso. Riteniamo utile precisare a questo punto quali siano state le dinamiche storiche che hanno portato alla convergenza di ontologia e delle scienze dell'informazione.
La corrente filosofica dalla quale sono venuti gli stimoli probabilmente più intensi e risolutivi alla rinascita dell'interesse per l'ontologia è molto probabilmente quella fenomenologica, anche se non è la sola. Com'è noto tuttavia, lo sviluppo della fenomenologia nasce storicamente dall'interesse di alcuni importanti filosofi del Novecento per le ricerche di Franz Brentano i cui studi furono decisivi per orientare i suoi allievi in questa direzione. Egli infatti alla fine del diciannovesimo secolo aveva aperto un campo di studi psico-logici di grande interesse; con la sua Psychologie vom empirischen Standpunkt del 1874, introduceva la nozione di intenzionalità, che accompagna tutti gli atti psichici, e li distingue in ciò da quelli fisici. Ma le ricerche di Brentano, in ambito psicologico, suscitarono grande interesse anche fra i suoi contemporanei che non si occupavano direttamente di questa disciplina, ci riferiamo in particolare all'austriaco Alois Hoefle ed al polacco Kasimierz Twardowski; essi diedero seguito alle osservazioni brentaniane, nel particolare aspetto della relazione tra il contenuto della rappresentazione e l'atto psichico soggettivo. Il problema che questi pensatori si trovarono di fronte consisteva nella contraddizione del dover ammettere una non-oggettività del contenuto delle rappresentazioni e al tempo stesso l'uguaglianza tra due rappresentazioni dello stesso oggetto. In altre parole se il concetto di animale non si fonda su nulla di oggettivo, allora non solo non c'è nulla che possa attestare l'uguaglianza, o financo la comunicabilità, fra il mio concetto di animale e quello del mio vicino, ma anche fra il mio di questo momento e quello di un'ora fa. A partire da queste difficoltà, gli allievi di Brentano si concentrarono su uno studio dei processi che costituiscono la formazione dei concetti.
Alexius Meinong ed Edmund Husserl furono entrambi allievi di Brentano, ma parimenti avevano una formazione intellettuale già realizzata al momento dell'incontro con l'autore della Psychologie, per cui ebbero maggiore inclinazione, rispetto ad altri allievi, a dar vita, a partire dalle teorie brentaniane, a sviluppi innovativi di quelle intuizioni.
Lo specifico interesse di Meinong per un'ontologia logica adeguata alle esigenze del linguaggio "di tutti i giorni", pone questo pensatore in una posizione di estremo interesse all'interno del percorso che vogliamo delineare. A partire dal suo scritto del 1904 sulla teoria degli oggetti (Ueber Gegenstandstheorie), Meinong articolava i possibili oggetti della conoscenza non in due (reali e ideali) ma in tre ambiti: reali, ideali e sussistenti in sé (es. enti matematici, ecc.), irreali e non sussistenti (es. i fantasmi o il circolo quadrato). Secondo Meinong una vera ontologia non può studiare solo l'essere (Sein) degli enti, ma deve invece interessarsi al loro esser-così (Sosein), indipendentemente dalla possibilità di esperirli. Anche Husserl si allontanò progressivamente dalla strada tracciata dal maestro, ma a quella filosofia in realtà deve molto, come la nozione di intenzionalità, il cui studio è in un certo senso da considerarsi l'inizio dello sviluppo della fenomenologia husserliana. Non è certamente questa la sede più adeguata per un'esposizione della filosofia di Husserl, già molto studiata ed ampiamente analizzata da molteplici punti di vista. Tuttavia sarà utile tenere presente quanto la teoria delle "regioni" della realtà costituisca in effetti una prima formulazione della teoria degli strati di Nicolai Hartmann, importantissima per i recenti studi ontologici, e che dunque contribuisce notevolmente allo sviluppo di una metodologia oggi ben affermata. Nelle Ideen zu einer reinen Phaenomenologie und phaenomenologischen Philosophie (1913) Husserl riteneva possibile astrarre alcune regioni della realtà, proponendo dunque le ontologie regionali, riconoscendo una diversità in un certo senso strutturale, di alcuni ambiti della realtà, come natura, coscienza e intersoggettività. Sfortunatamente Husserl non sviluppò ulteriormente questa intuizione, che tuttavia trovò in Hartmann ed Ingarden importanti svolgimenti.
Questi ultimi sono infatti due pensatori "chiave" della storia dell'ontologia del Novecento. Hartmann recupera la tradizione filosofica alle spalle di Brentano, riferendosi energicamente ad Aristotele e a Christian Wolff, dando vita ad un percorso di ricerca che in primo luogo si distingue per il suo rigore e per l'umiltà intellettuale con la quale è condotto. L'ontologia di Hartmann attraversa vari aspetti del mondo reale ed irreale, costituendosi in una serie di opere voluminose e di ampio respiro, in parte purtroppo non ancora tradotte in lingua italiana . Roman Ingarden, insieme ad Hartmann, fu uno strenuo sostenitore dell'autonomia dell'ontologia da altre branche della filosofia, come la metafisica (anche se Hartmann ammetteva nella sua ontologia un minimum di metafisica). Secondo Ingarden lo studio dell'ontologia deve essere articolato in tre sezioni, quante sono le componenti di ogni ente reale: materiale-formale-esistenza (modo di essere). Anche Ingarden sviluppa l'intuizione husserlaiana delle ontologie regionali, e si orienta verso una concezione dei "livelli" di realtà, come è possibile rilevare dalle sue analisi dell'opera d'arte letteraria .
Accanto al filone “fenomenologico” occorre dunque tracciare l’altro percorso teorico che con esso si è poi recentemente trovato a confronto, e che per molto tempo si è rivelato ad esso ostile; ci riferiamo, evidentemente, agli studi sull’Intelligenza Artificiale.
A partire dalle rivoluzionarie intuizioni di Alan Turing intorno alla metà del secolo scorso, si sono sviluppati, e sono oggi particolarmente vivi, numerosi studi di Artificial Intelligence, che hanno avuto "ufficialmente" inizio con l'iniziativa di John McCarthy, il quale nel 1956 riunì a Darthmouth quelli che allora erano considerati i pionieri di questo settore (tra cui Marvin Minsky, Allen Newell, Claude Shannon ed Herbert Simon), proponendo loro l'attivazione di un percorso teorico comune, cui diede il nome di "Artificial Intelligence"; negli ultimi cinquant'anni si sono moltiplicati gli studi finalizzati alla realizzazione di macchine in grado di riprodurre particolari attività dell'intelligenza umana. I risultati sono stati certamente notevoli, anche se rispetto alle aspettative di molti autori non sono mancate le delusioni.
Molte delle maggiori difficoltà che gli studiosi di questo settore dovettero incontrare, come l' "esplosione combinatoria", sono stati negli anni affrontate con successo, ma altre, come quelle legate alle difficoltà del calcolatore di trattare anche contenuti "semantici" oltre che "sintattici", costituiscono ancora oggi un problema. Anche l’acquisizione avvenuta in anni recenti degli expert systems ha evidenziato la difficoltà di connessione di un gruppo di informazioni afferenti al medesimo dominio, che un programma può padroneggiare anche in maniera efficientissima, e quello che è invece il sapere comune, sul quale per gli esseri umani i singoli saperi specialistici trovano fondamento. Ora è evidente che se per gli uomini la flessibilità della traduzione e della comunicazione tra linguaggi settoriali avviene attraverso il senso comune, tale processo è precluso agli expert systems:
Quello che avrebbe dovuto costituire il livello più alto (il rigore logico) è stato raggiunto con una certa rapidità, mentre ciò che sembra di poca importanza (il buon senso) si è rivelato la parte più difficile da programmare su un computer.
Alcune delle maggiori difficoltà che hanno caratterizzato la storia dell'Artificial Intelligence degli ultimi venticinque anni, sono derivate dalle osservazioni di un importante studioso, Hubert Dreyfus, che nel 1988 sollevò una perplessità che in un certo senso metteva in forte dubbio la stessa possibilità di realizzazione delle più avanzate aspettative della ricerca informatica: Dreyfus osservava che la "base di conoscenza" di cui un calcolatore avrebbe avuto bisogno per contestualizzare un discorso tratto dal linguaggio quotidiano, in modo da comprenderne il senso e chiarirne le espressioni equivoche, avrebbe richiesto una quantità d'informazione probabilmente troppo ampia . Se l'uomo costruisce la propria "base di conoscenza" attraverso l'apprendimento, anche per le macchine si dovrà pensare a:
-
Costruire una conoscenza di fondo sulla quale formare l'apprendimento
-
Organizzare il processo di apprendimento (su schemi "skinneriani")
-
Individuare la strategia per provocare l'induzione
-
Gestire e garantire l'acquisizione dei dati sensoriali
Le finalità delle osservazioni di Dreyfus erano "pessimistiche", ossia tendevano a mostrare l'elevata improbabilità di un raggiungimento di tali obiettivi.
Al tempo stesso Dreyfus, sulla scorta delle osservazioni di John Searle (1980) , negava ogni competenza semantica ai calcolatori, escludendo la possibilità del conseguimento di tale capacità. Sarà utile specificare che non ci stiamo addentrando in una radicale polemica "antiriduzionistica" e che tale non è la finalità di questa digressione; tuttavia è interessante notare che all'interno delle critiche e delle discussioni, sviluppatesi intorno all'ambito di studi dell'Artificial Intelligence, sono emerse alcune difficoltà che poi troveranno una prospettiva risolutiva, almeno in parte, nell'incontro con l'ontologia, come di fatto sta avvenendo in questi anni.
Abbiamo in diverse note citato nel precedente paragrafo gli studi condotti in questi anni da Nicola Guarino e Roberto Poli, volti ad una proposta di studio sull'ontologia come tecnologia; tuttavia il recupero della scienza dell' essere in quanto essere, negli anni Novanta, ha trovato numerosi riscontri anche tra altri studiosi italiani, sebbene con profili differenti. Una rivalutazione dell'ontologia che ha suscitato un certo interesse è quella attuata da Achille Varzi e Roberto Casati; il loro lavoro sui Buchi e altre superficialità è certamente di grande rilievo, e soprattutto ricco di utili provocazioni, ed ha poi avuto importanti sviluppi dal punto di vista ontologico, in particolare nell'opera che i due autori hanno pubblicato nel 1999 (Parts and Places. The structures of Spatial Representation, MIT Press, Cambridge (MA), London 1999). In effetti il lavoro di Varzi e Casati ha sollevato l'attenzione degli studiosi per almeno due ragioni; in primo luogo per la cura da essi riposta nell’immergersi nelle difficoltà e complicazioni del senso comune e del linguaggio naturale. Per altro verso, di grande rilievo, oltre all’approccio ontologico, risultano le domande che emergono dalla ricerca dei due autori, che concernono tanto il peso e la validità della 'fisica ingenua' quanto una seria problematizzazione dei "confini", attraverso la commistione di mereologia e topologia (la mereologia si occupa in particolare di approfondire la relazione tra un intero e le sue parti, e tra le parti di un intero; è un tipo di studio che deve molto anch’esso alle teorie brentaniane ed husserliane).
Grande notorietà ha ricevuto anche il recente lavoro di Maurizio Ferraris: Il mondo esterno. Questo libro, che apre all'autore una prospettiva ontologica (da un punto di vista strettamente filosofico e non ancora tecnologico), fa i conti in un certo senso con la teoria concettuale kantiana, e in sostanza, come esprime il titolo di uno dei capitoli del libro, costituisce un "addio al trascendentale". Attraverso le sue argomentazioni l'autore giunge ad una netta demarcazione fra epistemologia ed ontologia. E' su questo terreno che a nostro avviso può essere inteso il maggior contributo di Maurizio Ferraris.
Di grande interesse sono anche gli studi di Liliana Albertazzi, la quale oltre ad aver ampiamente incoraggiato un recupero degli studi su Franz Brentano, si è occupata di "allacciare" i più recenti interessi per l'ontologia formale con la tradizione fenomenologica, nella quale è possibile rinvenire le radici dei principali sviluppi di questa disciplina .
Come esito primo delle sue potenzialità applicative, la ricerca ontologica non interessa più unicamente gli appassionati di filosofia, ma sempre di più tende a connettersi con una dimensione tecnologica che prevede un’implementazione di tipo produttivo. Negli ultimi anni infatti, molti ambiti della ricerca legati all' information technology ed alla gestione di capitale informativo si sono orientati verso l'adozione, all'interno dei processi di costruzione di banche dati, di un approccio "ontologico". Ciò è dipeso da vari fattori, per lo più relativi all'aver in un certo senso avvertito la necessità di dotarsi di una serie di strumenti di lavoro che rendessero maggiormente fondati i costrutti per gerarchizzare le informazioni. L'ontologia tende infatti a determinare in maniera precisa quali predicati ineriscano ad un soggetto, ne definiscano l'essenza, ma anche quali predicati siano possibili per un soggetto e quali oggetti siano indiscutibilmente esistenti nel mondo possibile decritto. Tuttavia non tutti gli studiosi hanno inteso allo stesso modo la finalità e l'essenza dell'ontologia in quanto tale. Esistono infatti diversi modi di intendere il ricorso all'ontologia all'interno del Knowledge Management, che nascono da esigenze diverse ed offrono soluzioni altrettanto discordanti.
In un primo caso le ontologie (in tale concezione si adopera il plurale presumendo un'incontrollabile pluralità di costrutti ontologici) sono considerate come il fondamento della comunicazione tra le persone e tra i gruppi che si riconoscono in un determinato ambito culturale, linguistico, organizzativo. In tali ambiti, queste persone possono condividere elementi concettuali analoghi, simili o identici.
In un secondo modo di considerare l'ontologia nella sua importanza in ambito di Knowledge Management, l'ontologia è uno strumento teorico necessario per poter descrivere entità reali (oggetti, processi, eventi, ecc.) o meta-categorie per la modellazione della realtà (concetti, proprietà, qualità, stati, ruoli, ecc.).
La prima di queste due prospettive ha fornito e fornisce tuttora risultati certamente proficui e prodotti informatici diffusi; a tale idea dell'ontologia e del suo uso possono ricondursi, per quel che concerne l'Italia, gli indirizzi di ricerca di Nicola Guarino e Aldo Gangemi. Gangemi, in particolare, pare intendere l'ontologia come strettamente connessa al contesto d'uso, ossia come una coerente strutturazione categoriale all'interno di uno specifico dominio, in un condiviso contesto d'uso. Tuttavia, lo stesso Gangemi è costretto a dover riconoscere i limiti di tale prospettiva. C’è il rischio infatti che questo genere di impostazione non riesca a ridurre ad una le possibilità di classificazione, né a ridurre in alcun modo la libertà di interpretazione, ma consenta al massimo di costruire un contesto all'interno del quale siano possibili più contesti d'uso.
La seconda prospettiva cui abbiamo fatto riferimento, invece, intende individuare nella ricerca ontologica il momento di una definizione di top categories con validità universale, con una struttura categoriale altrettanto estendibile ad ogni dominio, attraverso un'analisi che parta sempre dall'oggettività, e facendo "parlare l'oggetto" (o il processo) capitalizza le informazioni necessarie e si costituisce come meta-modello. In questo modo, tende a raccogliere e consentire l'interscambio di differenti database, che pur essendo costruiti su domini diversi, si riferiscono sempre ad una realtà oggettiva che è una, ed estremamente complessa. L'attribuzione di tale funzionalità nell'ambito dell'integrazione allo studio dell'ontologia non deve però indurre nell'errata conclusione che esso debba essere limitato a tale compito; infatti non ci serviamo dell'ontologia unicamente quando ci troviamo di fronte a sistemi eterogenei che abbiamo bisogno di mettere in comunicazione. Al contrario, è proprio questa peculiarità dell'ontologia a renderla uno strumento utile nella stessa progettazione originaria di un database, fondata su criteri generali e aperti dunque a possibili integrazioni e modifiche. In questo senso, anche l'ambizione di costruire una classificazione terminologica di un campo disciplinare specifico, può ricevere dalla ricerca ontologica il contributo necessario per:
-
fondarsi su basi solide e generali;
-
possedere un costrutto altrettanto solido, in quanto derivato dalle caratteristiche "reali" dell'entità in oggetto;
consentire anche all'utente non esperto una più agevole comprensione delle relazioni intercorrenti tra le molteplici informazioni relative a quell'ambito disciplinare.
Sulla base di questa seconda impostazione sono sviluppate in particolare le ricerche di Roberto Poli.
Abbiamo potuto notare quanto la disciplina di cui ci occupiamo sia in un certo senso una risultante dell'incontro del filone fenomenologico e di quello “informatico”; la difficoltà di una cattura di una teoria ontologica in un modello informatico sta dunque nella capacità di mettere in relazione questi due grandi orientamenti, e di rendere proficua tale reciproca contaminazione. Superare l'approccio epistemologico che per molto tempo ha ampiamente dominato gli studi di knowledge engineering vuol dire dunque in prima istanza la corretta impostazione di un'analisi ontologica.
----------------------------------------------------------------------------------------------------
|