| Questo breve saggio si  propone di illustrare come due tradizioni di pensiero, sviluppatesi  parallelamente nel corso del ventesimo secolo (fenomenologia e studi  di Artificial Intelligence) hanno trovato una forma di  convergenza e di “commercio” teoretico nell’ultimo decennio,  per il miglioramento della relazione uomo-macchina.  Le potenzialità  dello sviluppo ontologico delle ricerche fenomenologiche ed i limiti  strutturali nelle aspirazioni dell’Artificial Intelligence  aprono la strada all’ontologia come tecnologia. 
  La questione dell’utilità della filosofia, dei suoi  possibili vantaggi operativi oltre che teorici, non è un tema  recente, come ben ci ricordano le pagine aristoteliche su Talete e  sulla nascita della filosofia. D’altro canto è proprio  l’inclinazione contemporanea alla perenne ricerca dell’utile  a rievocare momenti passati della speculazione metafisica, fino a  farli riaffiorare in veste modernissima come espedienti illuminanti  della scienza e delle sue nuove acquisizioni. Ci riferiamo con  quest’allusiva premessa alla recente riscoperta degli studi  ontologici, manifestatasi attraverso la sua singolare aderenza ai  progressi dell’ Information Technology.  Molti studiosi, anche inizialmente lontani dagli studi filosofici,  negli ultimi sette-otto anni hanno infatti riconosciuto come la  ricerca ontologica risulti uno strumento di grande utilità  nella progettazione di un "costrutto" in grado di rendere  comunicabili tra loro differenti banche dati e di facilitare  significativamente la rinnovabilità e l'aggiornamento di un  singolo database.  Anche se di primo acchito gli studi sull’essere possono  apparire estremamente lontani dalle esperienze di Artificial  Intelligence, diversi studiosi vi hanno ravvisato i margini per  un proficuo “commercio” teoretico e pratico. L'ontologia nasce da  un ragionamento filosofico, e costituisce un'analisi categoriale  della realtà, degli oggetti e dei processi che la  costituiscono; l'apporto che essa può fornire al knowledge  engineering  è sostanzialmente differente da quello che è  già dato dalla logica; se quest'ultima infatti è  prevalentemente orientata allo studio del ragionamento e delle sue  modalità, l'ontologia offre gli strumenti analitici per  ricercare la natura del mondo e delle cose che ci circondano.  Attualmente  lo sviluppo delle ricerche sull'applicazione dell'ontologia al  knowledge engineering ha posto l'esigenza di distinguere  l'ontologia come tecnologia, cioè come strumento per  progettare database, dall'ontologia della tradizione  filosofica, la quale, possiamo generalizzare, si costituisce per lo  più come analisi "categoriale", e proprio grazie a  tale precisazione essa si rivela estremamente vicina alle  problematiche che possono sorgere nello studio dell'ontologia come  tecnologia. Fino a qualche anno fa, tutti gli studi relativi alla  costruzione di sistemi informatici erano improntati, sulla scorta  delle esperienze maturate in ambito di Artificial Intelligence,  su una concezione della "conoscenza" di tipo "funzionale";  secondo la definizione di Newell, la conoscenza è «whatever  can be ascribed to an agent, such that its behavior can be computed  according to the principle of rationality» ] .  Al contrario, in particolare grazie all'opera di Clancey,  recentemente si è approdati ad un approccio di tipo diverso,  in base al quale «the primary concern of knowledge engineering  is modelling systems in the world, not replicating how people  think» .  In altre parole, mentre una prospettiva prevalentemente  epistemologica trascura di analizzare la maniera in cui il mondo o  semplicemente l'oggetto di studio sia costituito e stratificato, la  consapevolezza maturata in questi ultimi anni riguardo l'utilità  di un'analisi ontologica nella costruzione di un contesto all'interno  del quale più database possano comunicare, o nella  progettazione stessa di banche dati, ha raggiunto un notevole livello  di diffusione .  L'attuale  sviluppo tecnologico, con particolare riferimento al web,  ha  reso il problema dell'integrazione e della comunicazione delle  conoscenze di grande importanza, dal momento che nessun sistema può  rimanere "isolato". La necessità prima determinata  dallo sviluppo della rete è quella di una comunicazione non  ambigua attraverso concetti solidamente fondati. In questo senso  studi recenti convergono sull’idea che l'ontologia possa svolgere e  di fatto svolga un ruolo strategico nella progettazione di sistemi  informatici, attraverso l'integrazione di differenti tassonomie e  differenti thesauri all'interno di un dominio. L'utilità  di tale procedimento emerge in particolare dai settori specialistici,  in cui le conoscenze e le terminologie diverrebbero facilmente  fruibili dall'utente: «Consequently, ontology is not merely  categorial analysis; it is also a technology. In  other words, ontology is not just an attempt to clarify concepts. It  also serves for the design and the integration of data-bases; it also  furnishes methodologies and procedures».  In pratica, l’ontologia viene stimata funzionale a divenire  il principio guida per la costruzione di un meta-modello che includa  e possa mettere in relazione diverse banche dati, nonché a  contribuire in  maniera fondamentale alla costruzione di un singolo  database, ad esempio relativo ad un singolo settore  disciplinare.  E'  precisamente in questa direzione che va intesa la "sollecitazione"  unitaria che viene dagli studi ontologici; così come emerge  anche da un recente documento di Chris Partridge,  in base al quale possiamo in questo modo schematizzare la funzione  dell'ontologia nell'integrazione di database: 
  
    | Multiple		        databases			     					 (schemas and data) | ---> | DATABASE INTEGRATION | ---> | Single unified database
        
    (schemas and data) |   Non  abbiamo intenzione in questa sede di ricostruire i numerosi dibattiti  sorti tra scuole filosofiche nel corso del ventesimo secolo, né  di soffermarci sulle rigide divisioni tra "analitici" e  "continentali", in quanto riteniamo che anche alcuni  eccessi nelle contrapposizioni hanno poi determinato la diffidenza  verso l'approccio filosofico da parte dei non addetti ai lavori.  Tuttavia sarà utile rilevare che alcuni pensatori tra la fine  dell'Ottocento e la prima metà del secolo successivo hanno  contribuito in maniera estremamente significativa ad un processo di  avvicinamento tra filosofia e scienza.  Franz Brentano (1802-1872)  spese gran parte della propria attività  di studioso nella ricerca di un fondamento rigoroso per la filosofia,  sul modello delle altre scienze, come testimonia il titolo di una  delle tesi da lui sostenute per abilitarsi a Würzburg nel 1866:  Verae philosophiae methodus nulla olia nisi scientiae naturalis  est. Seguirono idealmente lo stesso percorso alcuni dei suoi più  noti allievi, come Alexius Meinong ed Edmund Husserl, il quale, ne La  crisi delle scienze europee (1936) indicava proprio nella  mancanza di comunicazione tra le scienze della natura e la filosofia  l'elemento di debolezza della cultura europea. All'interno di  quest'importante filone culturale possiamo collocare il maggiore  ontologo del Novecento, Nicolai Hartmann .
 Se da  un lato dunque dobbiamo alla corrente della fenomenologia  l'atteggiamento di ricerca non solo di un rigore scientifico nella  ricerca filosofica, ma anche di una necessaria comunicazione tra la  filosofia e le altre scienze, l'impulso alla creazione dei sistemi  informatici ed allo studio delle intelligenze artificiali, deriva da  un contesto culturale ben diverso. Riteniamo utile precisare a questo  punto quali siano state le dinamiche storiche che hanno portato alla  convergenza di ontologia e delle scienze dell'informazione.
La corrente filosofica dalla quale sono venuti gli stimoli  probabilmente più intensi e risolutivi alla rinascita  dell'interesse per l'ontologia è molto probabilmente quella  fenomenologica, anche se non è la sola.  Com'è noto tuttavia, lo sviluppo della fenomenologia nasce  storicamente dall'interesse di alcuni importanti filosofi del  Novecento per le ricerche di Franz Brentano i cui studi furono  decisivi per orientare i suoi allievi in questa direzione. Egli  infatti alla fine del diciannovesimo secolo aveva aperto un campo di  studi psico-logici di grande interesse; con la sua Psychologie vom  empirischen Standpunkt del 1874, introduceva la nozione di  intenzionalità, che accompagna tutti gli atti psichici, e li  distingue in ciò da quelli fisici. Ma le ricerche di Brentano,  in ambito psicologico, suscitarono grande interesse anche fra i suoi  contemporanei che non si occupavano direttamente di questa  disciplina, ci riferiamo in particolare all'austriaco Alois Hoefle ed  al polacco Kasimierz Twardowski; essi diedero seguito alle  osservazioni brentaniane, nel particolare aspetto della relazione tra  il contenuto della rappresentazione e l'atto psichico  soggettivo. Il problema che questi pensatori si trovarono di fronte  consisteva nella contraddizione del dover ammettere una  non-oggettività del contenuto delle rappresentazioni e al  tempo stesso l'uguaglianza tra due rappresentazioni dello stesso  oggetto. In altre parole se il concetto di animale non si  fonda su nulla di oggettivo, allora non solo non c'è nulla che  possa attestare l'uguaglianza, o financo la comunicabilità,  fra il mio concetto di animale e quello del mio vicino, ma anche fra  il mio di questo momento e quello di un'ora fa. A partire da queste  difficoltà, gli allievi di Brentano si concentrarono su uno  studio dei processi che costituiscono la formazione dei concetti.Naturalmente  l'applicazione di un'ontologia come tecnologia prevede un lavoro di  difficile indagine preliminare relativa al contesto filosofico dal  quale essa viene "tratta".
  Alexius  Meinong ed Edmund Husserl furono entrambi allievi di Brentano, ma  parimenti avevano una formazione intellettuale già realizzata  al momento dell'incontro con l'autore della Psychologie, per  cui ebbero maggiore inclinazione, rispetto ad altri allievi, a dar  vita, a partire dalle teorie brentaniane, a sviluppi innovativi di  quelle intuizioni.  Lo  specifico interesse di Meinong per un'ontologia logica adeguata alle  esigenze del linguaggio "di tutti i giorni", pone questo  pensatore in una posizione di estremo interesse all'interno del  percorso che vogliamo delineare. A partire dal suo scritto del 1904  sulla teoria degli oggetti (Ueber Gegenstandstheorie), Meinong  articolava i possibili oggetti della conoscenza non in due (reali e  ideali) ma in tre ambiti: reali, ideali e sussistenti in sé  (es. enti matematici, ecc.), irreali e non sussistenti (es. i  fantasmi o il circolo quadrato). Secondo Meinong una vera ontologia  non può studiare solo l'essere (Sein) degli enti, ma  deve invece interessarsi al loro esser-così (Sosein),  indipendentemente dalla possibilità di esperirli. Anche  Husserl si allontanò progressivamente dalla strada tracciata  dal maestro, ma a quella filosofia in realtà deve molto, come  la nozione di intenzionalità, il cui studio è in un  certo senso da considerarsi l'inizio dello sviluppo della  fenomenologia husserliana. Non è certamente questa la sede più  adeguata per un'esposizione della filosofia di Husserl, già  molto studiata ed ampiamente analizzata da molteplici punti di vista.  Tuttavia sarà utile tenere presente quanto la teoria delle  "regioni" della realtà costituisca in effetti una  prima formulazione della teoria degli strati di Nicolai Hartmann,  importantissima per i recenti studi ontologici, e che dunque  contribuisce notevolmente allo sviluppo di una metodologia oggi ben  affermata. Nelle Ideen zu einer reinen Phaenomenologie und  phaenomenologischen Philosophie (1913) Husserl riteneva possibile  astrarre alcune regioni della realtà, proponendo dunque le  ontologie regionali, riconoscendo una diversità in un  certo senso strutturale, di alcuni ambiti della realtà, come  natura, coscienza e intersoggettività. Sfortunatamente Husserl  non sviluppò ulteriormente questa intuizione, che tuttavia  trovò in Hartmann ed Ingarden importanti svolgimenti.  Questi  ultimi sono infatti due pensatori "chiave" della storia  dell'ontologia del Novecento. Hartmann recupera la tradizione  filosofica alle spalle di Brentano, riferendosi energicamente ad  Aristotele e a Christian Wolff, dando vita ad un percorso di ricerca  che in primo luogo si distingue per il suo rigore e per l'umiltà  intellettuale con la quale è condotto. L'ontologia di Hartmann  attraversa vari aspetti del mondo reale ed irreale, costituendosi in  una serie di opere voluminose e di ampio respiro, in parte purtroppo  non ancora tradotte in lingua italiana .  Roman Ingarden, insieme ad Hartmann, fu uno strenuo sostenitore  dell'autonomia dell'ontologia da altre branche della filosofia, come  la metafisica (anche se Hartmann ammetteva nella sua ontologia un  minimum  di metafisica). Secondo Ingarden lo studio  dell'ontologia deve essere articolato in tre sezioni, quante sono le  componenti di ogni ente reale: materiale-formale-esistenza (modo di  essere). Anche Ingarden sviluppa l'intuizione husserlaiana delle  ontologie regionali, e si orienta verso una concezione dei "livelli"  di realtà, come è possibile rilevare dalle sue analisi  dell'opera d'arte letteraria .  Accanto  al filone “fenomenologico” occorre dunque tracciare l’altro  percorso teorico che con esso si è poi recentemente trovato a  confronto, e che per molto tempo si è rivelato ad esso ostile;  ci riferiamo, evidentemente, agli studi sull’Intelligenza  Artificiale.  A partire  dalle rivoluzionarie intuizioni di Alan Turing intorno  alla metà del secolo scorso, si sono sviluppati, e sono oggi  particolarmente vivi, numerosi studi di Artificial Intelligence,  che hanno avuto "ufficialmente" inizio con l'iniziativa di  John McCarthy, il quale nel 1956 riunì a Darthmouth quelli che  allora erano considerati i pionieri di questo settore (tra cui Marvin  Minsky, Allen Newell, Claude Shannon ed Herbert Simon), proponendo  loro l'attivazione di un percorso teorico comune, cui diede il nome  di "Artificial Intelligence"; negli ultimi cinquant'anni si  sono moltiplicati gli studi finalizzati alla realizzazione di  macchine in grado di riprodurre particolari attività  dell'intelligenza umana. I risultati sono stati certamente notevoli,  anche se rispetto alle aspettative di molti autori non sono mancate  le delusioni.  Molte  delle maggiori difficoltà che gli studiosi di questo settore  dovettero incontrare, come l' "esplosione combinatoria",  sono stati negli anni affrontate con successo, ma altre, come quelle  legate alle difficoltà del calcolatore di trattare anche  contenuti "semantici" oltre che "sintattici",  costituiscono ancora oggi un problema. Anche l’acquisizione  avvenuta in anni recenti degli expert systems ha evidenziato  la difficoltà di connessione di un gruppo di informazioni  afferenti al medesimo dominio, che un programma può  padroneggiare anche in maniera efficientissima, e quello che è  invece il sapere comune, sul quale per gli esseri umani i singoli  saperi specialistici trovano fondamento. Ora è evidente che se  per gli uomini la flessibilità della traduzione e della  comunicazione tra linguaggi settoriali avviene attraverso il senso  comune, tale processo è precluso agli expert systems:  Quello che avrebbe dovuto costituire il livello più  alto (il rigore logico) è stato raggiunto con una certa  rapidità, mentre ciò che sembra di poca importanza (il  buon senso) si è rivelato la parte più difficile da  programmare su un computer.  Alcune  delle maggiori difficoltà che hanno caratterizzato la storia  dell'Artificial Intelligence degli ultimi venticinque anni,  sono derivate dalle osservazioni di un importante studioso, Hubert  Dreyfus, che nel 1988 sollevò una perplessità che in un  certo senso metteva in forte dubbio la stessa possibilità di  realizzazione delle più avanzate aspettative della ricerca  informatica: Dreyfus osservava che la "base di conoscenza"  di cui un calcolatore avrebbe avuto bisogno per contestualizzare un  discorso tratto dal linguaggio quotidiano, in modo da comprenderne il  senso e chiarirne le espressioni equivoche, avrebbe richiesto una  quantità d'informazione probabilmente troppo ampia .  Se l'uomo costruisce la propria "base di conoscenza"  attraverso l'apprendimento, anche per le macchine si dovrà  pensare a: 
  
    Costruire  	una conoscenza di fondo sulla quale formare l'apprendimento
    Organizzare  	il processo di apprendimento (su schemi "skinneriani")
    Individuare  	la strategia per provocare l'induzione
    Gestire  	e garantire l'acquisizione dei dati sensoriali Le  finalità delle osservazioni di Dreyfus erano "pessimistiche",  ossia tendevano a mostrare l'elevata improbabilità di un  raggiungimento di tali obiettivi.  Al  tempo stesso Dreyfus, sulla scorta delle osservazioni di John Searle  (1980) ,  negava ogni competenza semantica ai calcolatori, escludendo la  possibilità del conseguimento di tale capacità. Sarà  utile specificare che non ci stiamo addentrando in una radicale  polemica "antiriduzionistica" e che tale non è la  finalità di questa digressione; tuttavia è interessante  notare che all'interno delle critiche e delle discussioni,  sviluppatesi intorno all'ambito di studi dell'Artificial  Intelligence, sono emerse alcune difficoltà che poi  troveranno una prospettiva risolutiva, almeno in parte, nell'incontro  con l'ontologia, come di fatto sta avvenendo in questi anni.  Abbiamo in diverse note citato nel precedente paragrafo gli studi  condotti in questi anni da Nicola Guarino e Roberto Poli, volti ad  una proposta di studio sull'ontologia come tecnologia; tuttavia il  recupero della scienza dell' essere in quanto essere, negli  anni Novanta, ha trovato numerosi riscontri anche tra altri studiosi  italiani, sebbene con profili differenti. Una rivalutazione  dell'ontologia che ha suscitato un certo interesse è quella  attuata da Achille Varzi e Roberto Casati; il loro lavoro sui Buchi  e altre superficialità è certamente di grande rilievo, e soprattutto ricco di utili  provocazioni, ed ha poi avuto importanti sviluppi dal punto di vista  ontologico, in particolare nell'opera che i due autori hanno  pubblicato nel 1999 (Parts and Places. The  structures of Spatial Representation,  MIT Press, Cambridge (MA), London 1999). In effetti il lavoro  di Varzi e Casati ha sollevato l'attenzione degli studiosi per almeno  due ragioni; in primo luogo per la cura da essi riposta  nell’immergersi nelle difficoltà e complicazioni del senso  comune e del linguaggio naturale. Per altro verso, di grande rilievo,  oltre all’approccio ontologico, risultano le domande che emergono  dalla ricerca dei due autori, che concernono tanto il peso e la  validità della 'fisica ingenua' quanto una seria  problematizzazione dei "confini", attraverso la commistione  di mereologia e topologia (la mereologia si occupa in particolare di  approfondire la relazione tra un intero e le sue parti, e tra le  parti di un intero; è un tipo di studio che deve molto  anch’esso alle teorie brentaniane ed husserliane).  Grande notorietà ha ricevuto anche il recente lavoro di  Maurizio Ferraris: Il mondo esterno. Questo libro, che apre  all'autore una prospettiva ontologica (da un punto di vista  strettamente filosofico e non ancora tecnologico), fa i conti in un  certo senso con la teoria concettuale kantiana, e in sostanza, come  esprime il titolo di uno dei capitoli del libro, costituisce un  "addio al trascendentale". Attraverso le sue argomentazioni  l'autore giunge ad una netta demarcazione fra epistemologia ed  ontologia. E' su questo terreno che a nostro avviso può essere  inteso il maggior contributo di Maurizio Ferraris.  Di  grande interesse sono anche gli studi di Liliana Albertazzi, la quale  oltre ad aver ampiamente incoraggiato un recupero degli studi su  Franz Brentano, si è occupata di "allacciare" i più  recenti interessi per l'ontologia formale con la tradizione  fenomenologica, nella quale è possibile rinvenire le radici  dei principali sviluppi di questa disciplina . Come  esito primo delle sue potenzialità applicative, la ricerca  ontologica non interessa più unicamente gli appassionati di  filosofia, ma sempre di più tende a connettersi con una  dimensione tecnologica che prevede un’implementazione di tipo  produttivo. Negli ultimi anni infatti, molti ambiti della ricerca  legati all' information technology ed alla gestione di  capitale informativo si sono orientati verso l'adozione, all'interno  dei processi di costruzione di banche dati, di un approccio  "ontologico". Ciò è dipeso da vari fattori,  per lo più relativi all'aver in un certo senso avvertito la  necessità di dotarsi di una serie di strumenti di lavoro che  rendessero maggiormente fondati i costrutti per gerarchizzare le  informazioni. L'ontologia tende infatti a determinare in maniera  precisa quali predicati ineriscano ad un soggetto, ne definiscano  l'essenza, ma anche quali predicati siano possibili per un soggetto e  quali oggetti siano indiscutibilmente esistenti nel mondo possibile  decritto. Tuttavia non tutti gli studiosi hanno inteso allo stesso  modo la finalità e l'essenza dell'ontologia in quanto tale.  Esistono infatti diversi modi di intendere il ricorso all'ontologia  all'interno del Knowledge Management, che nascono da esigenze  diverse ed offrono soluzioni altrettanto discordanti.   In un primo caso  le ontologie (in tale concezione si adopera il  plurale presumendo un'incontrollabile pluralità di costrutti  ontologici) sono considerate come il fondamento della comunicazione  tra le persone e tra i gruppi che si riconoscono in un determinato  ambito culturale, linguistico, organizzativo. In tali ambiti, queste  persone possono condividere elementi concettuali analoghi, simili o  identici.  In un secondo modo di considerare l'ontologia nella sua importanza in  ambito di Knowledge Management, l'ontologia è uno  strumento teorico necessario per poter descrivere entità reali  (oggetti, processi, eventi, ecc.) o meta-categorie per la  modellazione della realtà (concetti, proprietà,  qualità, stati, ruoli, ecc.). La  prima di queste due prospettive ha fornito e fornisce tuttora  risultati certamente proficui e prodotti informatici diffusi; a tale  idea dell'ontologia e del suo uso possono ricondursi, per quel che  concerne l'Italia, gli indirizzi di ricerca di Nicola Guarino e Aldo  Gangemi. Gangemi, in particolare, pare intendere l'ontologia come  strettamente connessa al contesto d'uso, ossia come una coerente  strutturazione categoriale all'interno di uno specifico dominio, in  un condiviso contesto d'uso. Tuttavia, lo stesso Gangemi è  costretto a dover riconoscere i limiti di tale prospettiva. C’è  il rischio infatti che questo genere di impostazione non riesca a   ridurre ad una le possibilità di classificazione, né a  ridurre in alcun modo la libertà di interpretazione, ma  consenta al massimo di costruire un contesto all'interno del quale  siano possibili più contesti d'uso.  La seconda prospettiva cui abbiamo fatto riferimento, invece, intende  individuare nella ricerca ontologica il momento di una definizione di  top categories con validità universale, con una  struttura categoriale altrettanto estendibile ad ogni dominio,  attraverso un'analisi che parta sempre dall'oggettività, e  facendo "parlare l'oggetto" (o il processo) capitalizza le  informazioni necessarie e si costituisce come meta-modello. In questo  modo, tende a raccogliere e consentire l'interscambio di differenti  database, che pur essendo costruiti su domini diversi, si  riferiscono sempre ad una realtà oggettiva che è una,  ed estremamente complessa. L'attribuzione di tale funzionalità  nell'ambito dell'integrazione allo studio dell'ontologia non deve  però indurre nell'errata conclusione che esso debba essere  limitato a tale compito; infatti non ci serviamo dell'ontologia  unicamente quando ci troviamo di fronte a sistemi eterogenei che  abbiamo bisogno di mettere in comunicazione. Al contrario, è  proprio questa peculiarità dell'ontologia a renderla uno  strumento utile nella stessa progettazione originaria di un database,  fondata su criteri generali e aperti dunque a possibili integrazioni  e modifiche. In questo senso, anche l'ambizione di costruire una  classificazione terminologica di un campo disciplinare specifico, può  ricevere dalla ricerca ontologica il contributo necessario per: 
  
    fondarsi  	su basi solide e generali;
    possedere  	un costrutto altrettanto solido, in quanto derivato dalle  	caratteristiche "reali" dell'entità in oggetto; consentire  anche all'utente non esperto una più agevole comprensione  delle relazioni intercorrenti tra le molteplici informazioni relative  a quell'ambito disciplinare. Sulla  base di questa seconda impostazione sono sviluppate in particolare le  ricerche di Roberto Poli.  Abbiamo potuto notare quanto la disciplina di cui ci occupiamo sia in  un certo senso una risultante dell'incontro del filone fenomenologico  e di quello “informatico”; la difficoltà di una cattura di  una teoria ontologica in un modello informatico sta dunque nella  capacità di mettere in relazione questi due grandi  orientamenti, e di rendere proficua tale reciproca contaminazione.  Superare l'approccio epistemologico che per molto tempo ha ampiamente  dominato gli studi di knowledge engineering vuol dire dunque  in prima istanza la corretta impostazione di un'analisi ontologica.  ----------------------------------------------------------------------------------------------------  
 
 
 
 |