MINISTERO DELL’UNIVERSITÀ E DELLA RICERCA SCIENTIFICA E TECNOLOGICA
DIPARTIMENTO AFFARI ECONOMICI
PROGRAMMI DI RICERCA SCIENTIFICA DI RILEVANTE INTERESSE NAZIONALE
RICHIESTA DI COFINANZIAMENTO
(DM del 4 dicembre 1997)
PROGRAMMA DI RICERCA - MODELLO A
Anno 1998 - prot. 9801240982


1.1 Programma di Ricerca di tipo: interuniversitario

Area Scientifico Disciplinare: Scienze matematiche (70%)

Area Scientifico Disciplinare: Ingegneria industriale e dell'informazione (30%)

Area Scientifico Disciplinare: (%)


1.2 Titolo del Programma di Ricerca
Testo italiano
Agenti Intelligenti: Interazione e Acquisizione di conoscenza

Testo inglese
Intelligent Agents: Interaction and Knowledge Acquisition



1.3 Durata del Programma dell’Unità di Ricerca: 24 mesi


1.4 Settori disciplinari interessati dal Programma di Ricerca:
K05B K05B K05A


1.5 Parole chiave:
In italiano:
AGENTI INTELLIGENTI; APPRENDIMENTO AUTOMATICO; ELABORAZIONE LINGUAGGIO NATURALE; GESTIONE DI CONOSCENZA; INTELLIGENZA ARTIFICIALE; LAVORO COOPERATIVO; PROGRAMMAZIONE LOGICA; RAGIONAMENTO AUTOMATICO
In inglese:
ARTIFICIAL INTELLIGENCE; AUTOMATED REASONING; COMPUTER SUPPORTED COOPERATIVE WORK; INTELLIGENT AGENTS; KNOWLEDGE MANAGEMENT; LOGIC PROGRAMMING; MACHINE LEARNING; NATURAL LANGUAGE PROCESSING


1.6 Coordinatore Scientifico del Programma di Ricerca
TURINI
(Cognome)
FRANCO
(Nome)

(Cognome acquisito - facoltativo)
professore ordinario
(Qualifica)
09/08/1949
(Data di nascita)
TRNFNC49M09G702H
(Codice di identificazione personale)
Universita' degli Studi di PISA
(Università/Osservatorio Astronomico)
Facolta' di SCIENZE MATEMATICHE FISICHE e NATURALI
(Facoltà)
K05B
(Settore)
INFORMATICA
(Dipartimento)
050/887253
(Prefisso e telefono)
050/887226
(Numero fax)
turini@di.unipi.it
(Indirizzo di posta elettronica)


1.7 Curriculum scientifico:
Testo italiano
Franco Turini e` nato nel 1949. Si e` laureato in Scienze dell'Informazione con lode nel 1973 presso l'Universita` di Pisa. Attualmente e` professore ordinario e direttore del Dipartimento di Informatica dell'Universita` di Pisa. I suoi interessi di ricerca includono il progetto, la semantica formale e l'implementazione di linguaggi di programmazione e sistemi di basi di dati basati sulla logica.
La sua esperienza di gestione di programmi di ricerca include la gestione del sottoprogetto "Linguaggi di nuova concezione" nell'ambito del progetto finalizzato del CNR "Sistemi informatici e calcolo parallelo" e il coordinamento dell'area "Meta and nonmonotonic reasoning" del BRA Esprit No 6810 "Compulog II" (93/96).
Testo inglese
Franco Turini was born in 1949 in Italy. He graduated in Computer Science (Laurea in Scienze dell' Informazione) summa cum laude in 1973, from the University of Pisa. He is currently a full professor and chairman of the Department of Computer Science of the University of Pisa.
His research interests include design, formal semantics, implementation, and applications of languages and dabase systems based on logics.
His experience in managing research projects includes managing the subproject named "New generation Languages" within the national project "Computing Systems and Parallel processing of the National Research Council (90/93) and coordinating the "Meta and nonmonotonic reasoning area" of the BRA Esprit Action No 6810 "Compulog II" (93/96).



1.8 Pubblicazioni scientifiche più significative del Coordinatore del Programma di Ricerca
  1. A.Brogi, F.Turini, Fully abstract compositional semantics for an algebra of logic programs, (1995), Theoretica Computer Science 149-2:201-229
  2. K.Apt, F.Turini, Meta-Logics and Logic Programming, (1995), ISBN/ISSN: ISBN 0-262-01152-2, The MIT Press, Cambridge, Massachussets
  3. P.Asirelli, C.Renso, F.Turini, Language extensions for semantic integration of dedudctive databases, (1996), Proceedings of LIDS96, Springer, LNCS vol 1154
  4. D.Aquilino, P.Asirelli, C.Renso, F.Turini, Applying restriction constraints to deductive databases, (1997), Annals of Mathematics and AI no 19:3-25
  5. A.Brogi, P.Mancarella, D.Pedreschi, F.Turini, Modular logic Programming, (1994), ACM Toplas, 16-4, pp 1361-1398


1.9 Elenco delle Unita’ di Ricerca

Responsabile scientifico Qualifica Settore disc. Università Dipart./Istituto Mesi/uomo
1 DE MICHELIS GIORGIO professore associato K05B Universita' degli Studi di MILANO SCIENZE DELL'INFORMAZIONE 154
2 ESPOSITO FLORIANA professore ordinario K05A Universita' degli Studi di BARI INFORMATICA 166
3 MARTELLI ALBERTO professore ordinario K05B Universita' degli Studi di TORINO INFORMATICA 286
4 MELLO PAOLA professore ordinario K05A Universita' degli Studi di FERRARA INGEGNERIA 173
5 PAZIENZA MARIA TERESA professore associato K05A Universita' degli Studi di ROMA "Tor Vergata" INFORMATICA, SISTEMI E PRODUZIONE 101
6 SODA GIOVANNI professore associato K05A Universita' degli Studi di FIRENZE SISTEMI E INFORMATICA 74
7 TURINI FRANCO professore ordinario K05B Universita' degli Studi di PISA INFORMATICA 284
8 VELARDI PAOLA professore associato K05B Ia Universita' degli Studi di ROMA "La Sapienza" SCIENZE DELL'INFORMAZIONE 90


1.10 Mesi uomo complessivi dedicati al programma
Personale universitario dell’Università sede dell’Unità di Ricerca (docenti) 640 Mesi/uomo
Personale universitario dell’Università sede dell’Unità di Ricerca (altri) 0 Mesi/uomo
Personale universitario di altre Università (docenti) 80 Mesi/uomo
Personale universitario di altre Università (altri) 0 Mesi/uomo
Titolari di borse post-dottorato 26 Mesi/uomo
Titolari di borse dottorato 474 Mesi/uomo
Personale a contratto 108 Mesi/uomo
Totale 1328 Mesi/uomo


2.1 Obiettivo del Programma di Ricerca:
Testo italiano
Data la straordinaria crescita delle sorgenti di informazione disponibili attraverso le reti, il problema di combinare sorgenti di informazione eterogenee e distribuite sta diventando critico. Le sorgenti di informazione possono includere database tradizionali, files, archivi di testi, immagini, suoni, basi di conoscenza, programmi, siti WEB ecc.
Un approccio promettente a questo problema e` la creazione di sistemi di agenti per l'estrazione di informazione e il ragionamento su di essa. In tali sistemi ciascun agente e` specializzato per interagire con un particolare tipo di sorgente di informazione ed e` in grado di interagire con gli altri agenti del sistema per concorrere alla sintesi della risposta richiesta dall'utente. Inoltre in generale la raccolta di informazioni avviene nel quadro di processi cooperativi che coinvolgono piu` attori in sedi diverse. I sistemi di agenti sono peraltro una tecnologia promettente anche per il supporto alla cooperazione, in particolare per quanto riguarda la loro "awareness" del contesto in cui stanno operando.
L'obiettivo di questo progetto e` lo studio dei fondamenti teorici, la realizzazione degli strumenti di implementazione e la sperimentazione su specifiche applicazioni di sistemi ad agenti per la raccolta e la sintesi di informazioni e per il supporto alla cooperazione.
Per costruire un sistema ad agenti per la raccolta di informazioni e` necessario, a nostro parere, affrontare e risolvere problemi di ricerca relativi a:


1) l'architettura dei sistemi di agenti, ovvero come e con quali strumenti linguistici e sistemistici gli agenti si organizzano in un singolo sistema e contribuiscono alla elaborazione delle informazioni e con quali metodi e tecniche si possono rendere gli agenti mobili sulla rete e "context sensitive";


2) il modello di ragionamento del singolo agente, ovvero i metodi e le tecniche con cui il singolo agente ragiona sulla informazione che si trova a disposizione o che ha estratto;


3) metodi e tecniche per l'estrazione dell'informazione da varie sorgenti, strutturate e non, e per la sua presentazione in forma sintetica.


Gli approcci che si intendono usare nell'affrontare i tre problemi sopra elencati sono:


1) studio di meccanismi linguistici e sistemistici, sostanzialmente indipendenti dal linguaggio di base per la programmazione dell'agente, che consentano di definire l'architettura del sistema ad agenti e di programmare la loro interazione, la loro mobilita` e i modi di rendere disponibili le informazioni agli utenti. Tali meccanismi linguistici saranno basati, da un lato, sui concetti di orientamento agli oggetti e, dall'altro, su logiche adatte a catturare l'idea di "interazione intelligente".


2) le tecniche di ragionamento del singolo agente saranno studiate con approcci basati sulla rappresentazione dichiarativa della conoscenza e sulla logica computazionale, finalizzati alla modellazione di ragionamento monotono, non monotono, incerto e incompleto;


3) il problema della estrazione di informazione sara` affrontato in accordo alle strategie dell'apprendimento empirico e concettuale. Saranno in particolare affrontati i problemi di estrazione di informazione da data base strutturati (data mining) e da testo non strutturato o parzialmente strutturato, tramite analisi di testi in linguaggio naturale, e lo sviluppo di metodi di apprendimento automatico di informazioni linguistiche con il conseguente sviluppo di sistemi per l'estrazione di strutture argomentali per i verbi, lessici, terminologia e nomi propri di dominio, sintesi di documenti.


La bonta` delle soluzioni messe a punto sara` sperimentata nella costruzione di applicazioni che metteranno in evidenza la combinazione, eventualmente parziale, delle tecniche studiate.
Testo inglese
Given the extraordinary growth of the information sources that are available via computer networks, the problem of combining distributed and heterogeneous information sources is becoming critical. The information sources may include traditional databases, files, archives of texts, images and sounds, knowledge bases, programs, web sites and so on.
A promising approach to this problem is the realization of systems of agents for extracting knowledge and reasoning about it. In such systems, each agent is specialized for interacting with a specific kind of information source, and it is capable of interacting with other agents of the system in order to synthesize the answer to user's queries. Furthermore, in general, the collection of information occurs in the framework of cooperation processes, that involve different actors located in different sites. Agent systems are also a promising technology for supporting cooperation, especially because of their awareness of the context in which they are operating.
The goal of this projects is the study of the theoretical foundations, the realization of the implementation tools, and the experimentation on specific applications of agent systems for collecting and synthesizing information, and for supporting cooperation.
In order to build an agent system for information collection, it is necessary, in our opinion, addressing and solving research problems related to:


1) the architecture of agent systems, that is how and by using which languages and systems agents can be organized in a single system and they contribute to information processing, and by using which methods and techniques agents can be made mobile on the net and context sensitive;


2) the reasoning model of each agent, that is methods and techniques which can be used by each agent in order to reason about the information it owns or extracted;


3) methods and techniques for extracting information from different structured and unstructured sources, and for presenting the results in a synthetic form.


The approaches we intend to use in order to address the above problems are:


1) the study of language and system extensions, essentially independent from the basic language used to program agents, that allow the definition of the structure of the agent system, and that allow to program agent interaction and mobility, and the way agents make information available to user. Such language extensions will be based, on one hand, on the concept of object orientation and, on the other one, on logics suitable to capture the idea of "intelligent interaction"


The reasoning techniques for the single agent will be studied according to approaches based on declarative knowledge representation an computational logic. Such basic approaches will be finalized to modeling monotonic, non monotonic, uncertain, and incomplete reasoning;


The problem of information extraction will be addressed according to the strategies of empiric and conceptual learning. More specifically, we will address problems of information extraction from structured databases (data mining), and from unstructured or partially structured text via natural language analysis techniques, by developing new methodologies for acquisition of lexical information, and by producing systems for automatic extraction from document processing of: verb argument structures, lexicons, domain terminologies, proper names and entities, document abstracts.


The effectiveness of the solutions we develop will be experimented in the construction of applications, that will point out the, possibly partial, combination of the proposed techniques.



2.2 Base di partenza scientifica nazionale o internazionale:
Testo italiano
L'obiettivo primario del progetto e` la creazione di una tecnologia basata su una architettura multi-agente che consenta di costruire applicazioni per l'estrazione e la sintesi di conoscenza da dati strutturati e non accessibili su WEB. Le tecnologie per la costruzione di simili applicazioni spaziano dunque dai modelli concettuali, spesso basati sulla logica, per i sistemi multiagenti, alle soluzioni linguistiche e architetturali necessarie per l'implementazione dei sistemi, alle tecniche di data mining e di knowledge extraction spesso basate su algoritmi statistici e su tecnologie di apprendimento automatico in generale.
L'approccio "ad agenti" sta riscuotendo un ampio successo in vari settori applicativi perche` appare come la sintesi dei migliori risultati nel campo del software engineering (programmazione ad oggetti, sistemi distribuiti) con i migliori risultati nel campo dell'intelligenza artificiale (tecniche di reasoning, di planning e di learning).
Negli USA, questo tipo di tecnologia e` alla base di un ampio programma di ricerca, finanziato da DARPA e denominato I*3 [1], che ha come obiettivo lo sviluppo di tecnologia avanzata per fornire facile accesso all'informazione - sia nella forma necessaria agli utenti finali che alle applicazioni - mediante il recupero, il filtraggio, l'estrazione, l'integrazione e l'estrazione, in forme intelligenti, di informazione dalla massa di dati esistente.
L'importanza dei temi di ricerca su agenti intelligenti e' anche chiaramente messa in luce dal Quinto Programma Quadro, in fase di elaborazione da parte dell' Unione Europea. Infatti, uno dei tre programmi tematici di tale Programma riguarda la creazione di una societa' dell'informazione "user-friendly", e comprende temi come "sistemi e servizi per i cittadini" e "nuovi metodi di lavoro e commercio elettronico", in cui e' essenziale il ruolo di sistemi software intelligenti che facilitino l'interazione con l'elaboratore per l'acquisizione dell'informazione necessaria.
Vale la pena ribadire che la tecnologia degli agenti e` molto generale, potenzialmente adatta ad affrontare qualsiasi tipo di problema, e che il nostro progetto intende utilizzarla nel settore specifico dell'estrazione e filtraggio di informazione da basi di dati strutturati e non e nella sua classificazione.
Nel seguito cercheremo di tracciare brevemente un panorama dello stato dell'arte mondiale organizzato secondo lo schema concettuale del progetto. Le competenze maturate dalle unita` partecipanti al progetto sono invece descritte nella sezione "Base di partenza scientifica" dei modelli delle unita`.
1) Architettura dei sistemi di agenti Lo sviluppo di agenti intelligenti costituisce uno dei temi principali della ricerca in intelligenza artificiale, come testimoniato dalla serie di conferenze su questo tema e da numeri speciali di riviste prestigiose [2,3,4,5]. L'insieme di compiti e applicazioni in cui un agente puo` intervenire e` molto ampio: filtraggio e reperimento dell'informazione, gestione della posta elettronica, assistenza intelligente per la pianificazione di attivita', selezione di materiale rilevante da collezioni molto ampie e poco strutturate, come ad esempio l'ambiente Web. Fra le principali direzioni di ricerca dell'intelligenza artificiale in [6] vengono descritte le caratteristiche di un agente che deve operare in un ambiente la cui struttura non puo' essere completamente prevista. Il sistema dovra' usare grandi quantita' di conoscenza sul mondo in cui deve operare. Tale conoscenza dovra' essere organizzata in forme flessibili, in modo da essere utilizzabile in compiti diversi, e dovranno essere sviluppati meccanismi per acquisire conoscenza attraverso l'esperienza o attraverso la collaborazione con altri agenti, umani o artificiali. La realizzazione di sistemi software con queste caratteristiche richiede l'integrazione di diversi strumenti e metodologie sviluppati in intelligenza artificiale, come tecniche di risoluzione di problemi e di ragionamento automatico, rappresentazione della conoscenza, apprendimento automatico, pianificazione. Richiede inoltre una attenta progettazione architetturale, che stimola ricerche in ambito dei linguaggi di programmazione e della organizzazione dei sistemi.
Nella realizzazione di agenti e' essenziale la nozione di cooperazione sia nei confronti dell'utente che nei confronti di altri agenti che collaborano nello svolgimento di un compito [7]. Lo sviluppo delle tecnologie della cooperazione (Computer Supported Cooperative Work) richiede di considerare l'integrazione di strumenti di comunicazione con strumenti avanzati che diano supporto alla gestione della complessita' derivante dalla crescita dell'utilizzo di Internet e della tecnologia WEB unitamente all'evoluzione delle organizzazioni verso strutture a rete i cui nodi sono caratterizzati da alti livelli di autonomia e da elevate esigenze di un coordinamento flessibile ed efficace. Tali strumenti si stanno orientando verso tecnologie ad agenti che possono intervenire in modo reattivo e proattivo nel processo comunicativo a diversi livelli.
Tra i possibili approcci linguistici alla realizzazione di cooperazione tra agenti ha un ruolo di rilievo l'approccio dichiarativo. I modelli dichiarativi di computazione possono risultare un punto di aggregazione fra sistemi, spesso eterogenei, che necessitano di dialogare e cooperare. In questo ambito, i linguaggi e modelli di coordinazione sono un utile strumento di partenza per il coordinamento tra agenti computazionali eterogenei.
2) Tecniche di ragionamento per agenti In generale ai modelli di coordinamento presenti nella letteratura sui sistemi cooperanti e distribuiti mancano molto spesso forme piu` sofisticate di interazione o di computazione, ben note ed assestate, invece, in altri ambiti quali quello dell'Intelligenza Artificiale e dei linguaggi dichiarativi basati su logica. Per esempio, per realizzare modelli e meccanismi di ragionamento per agenti logici distribuiti ci si puo` basare su meccanismi inferenziali quali abduzione [8] e induzione [9]. Sia separatamente che integrati insieme questi meccanismi inferenziali accrescono le capacita` computazionali di un agente. Abduzione e induzione sono forme di inferenza presenti in molti sistemi di intelligenza artificiale basati su logica, ma in modo separato o in alcuni casi in cascata l'una all'altra. Recentemente, ci sono state alcune proposte di integrazione di questi due meccanismi, come testimoniato dal workshop tenutosi durante la conferenza europea ECAI96, e da quello tenuto in concomitanza con IJCAI97. Inoltre, modelli e meccanismi di ragionamento per agenti logici possono essere integrati convenientemente con tecniche di soddisfacimento di vincoli, al fine di aumentare l'efficienza del ragionamento.
3. Estrazione di informazione e conoscenza Uno degli aspetti applicativi piu` importanti del progetto e` l'uso degli agenti per il reperimento della informazione in tutti i suoi vari aspetti: estrazione e classificazione di conoscenza da testi e informazione non strutturata in genere, data mining, ovvero astrazione di associazioni da dati strutturati o semi-strutturati, learning, ovvero sintesi di leggi e schemi generali da esempi.
A seguito dell'enorme aumento di documentazione accessibile in rete da un utente finale, e` aumentata considerevolmente la richiesta di sistemi per l'estrazione di informazione (IE) da testi, la loro organizzazione e integrazione collegata ad una attivita` intelligente di filtraggio e classificazione del gran numero di documenti ritrovabili con tecniche e sistemi attualmente disponibili di Information Retrieval (IR) [13]. L'IR attualmente tenta di usare al massimo i metodi di elaborazione del linguaggio naturale per migliorare la "recall" e "precision" rispetto ad una query utente. Infatti l'IR seleziona documenti rilevanti, l'IE estrae fatti importanti dai documenti eventualmente ritrovati. Poiche` tali fatti sono distribuiti in un numero considerevole di frasi in linguaggio naturale, la capacita` di elaborare documenti e` essenziale in un tale processo, per cui l'IE deve essere considerata come una tecnologia di base fondamentale.
Gli attuali motori di ricerca per il Web eseguono una ricerca basata sul contenuto del documento e forniscono risultati sotto forma di semplice elenco di documenti valutati in ordine di rilevanza. Per esempio, il servizio Lycos mantiene una categorizzazione completa di tutto il materiale su cui effettua la ricerca. L'approccio di Lycos si basa su una categorizzazione che viene effettuata manualmente da un piccolo gruppo di tecnici appositamente preparati. E` impensabile che questo sistema possa tener il passo con la crescita del Web che entro due anni raggiungera` oltre 30 terabyte di materiale.
Quanto all'estrazione di informazioni rilevanti e potenzialmente utili da grandi basi di dati, questa, nota come data mining [12], puo' avvalersi sia tecniche di apprendimento numerico sia simbolico (costruzione di funzioni di regressione, induzione di regole di classificazione, scoperta di regole di associazione o di modelli causali, etc.). Esempi di campi applicativi naturali per il data mining sono l'analisi dei dati di prenotazione di voli per la scoperta di regole generali di valore commerciale, l'analisi dei dati della produzione automatizzata di chip VLSI per l'identificazione di errori nel processo di fabbricazione, l'analisi dei dati della gestione di reti di comunicazione per l'identificazione di comportamenti anomali, l'analisi di dati scientifici quali i dati dell'elettroforesi per l'identificazione di sequenze del DNA, l'analisi di dati di vendita ed altri dati di marketing per l'identificazione tempestiva di opportunita` commerciali, l'analisi di immagini per l'identificazione di caratteristiche.
Un'ulteriore applicazione delle tecniche di apprendimento automatico allo sviluppo di sistemi multiagente cooperativi riguarda lo studio della interazione tra l'utente e il sistema e fra gli agenti che compongono il sistema stesso. Per quel che riguarda l'interazione tra utente e sistema, i modelli computazionali di apprendimento automatico possono risultare utili tanto nella costruzione del modello utente [10] quanto nel ritrovamento efficace, efficiente e mirato dell'informazione [11], attraverso la possibilita' di categorizzare ed etichettare semanticamente i concetti. Per la modellazione utente sono stati finora utilizzati con un certo successo metodi subsimbolici e alberi di decisione per estrarre pattern di caratteristiche da tracce di interazioni di utenti. L'interazione cooperativa fra agenti reattivi distribuiti puo' essere modellizzata mediante algoritmi naturali ed evolutivi che prendono spunto dai meccanismi insiti in alcuni fenomeni naturali e biologici per individuare comportamenti globali 'emergenti'.

[1] http://dc.isx.com/I3/

[2] Communications of ACM, Vol 37-7 (1994)

[3] IEEE Expert, Vol 11-6 (1996)

[4] IEEE Expert, Vol 12-5 (1997)

[5] B.A.Nardi, J.R.Miller, O.J. Wright, Communications of ACM, Vol 41-3 (1998):96-104

[6] J. Doyle, T. Dean et al., Strategic Directions in Artificial Intelligence, ACM Computing Surveys, Vol. 28, N. 4, dic. 1996.

[7] Communications of ACM Vol.4-3 (1997)

[8] A.C. Kakas, R.A. Kowalski, F. Toni, Abductive Logic Programming, Journal of Logic and Computation}, 2(6):719-770 (1993).

[9] F. Bergadano, G. Gunetti, "Inductive Logic Programming", The MIT Press, 1996.

[10] M Bauer, W Pohl and G Webb(eds.) Proc. of the UM97 Workshop on "Machine learning for User Modeling" Chia Laguna (Cagliari-Italy), 1997.

[11] O. Etzioni. The World-Wide Web: Quagmire or Gold Mine? Communications of the ACM, Vol. 39-11:65-68 (1996).

[12]U.M. Fayyad, G. Piatetsky-Shapiro, P. Smith, and R. Uthurusamy (Eds.), Advances in Knowledge Discovery and Data Mining, AAAI Press/ The MIT Press (1996).

[13]M.T. Pazienza (ed.), Information Extraction: a multidisciplinary approach to an emerging information technology, Springer Verlag, LNAI 1299 (1997)

Testo inglese
The primary objective of the project is the realization of a multi-agent architecture based technology, that allows one to build applications for the extraction and the synthesis of knowledge from structured and unstructured data accessible on the Web. The technologies for constructing such applications range from conceptual models, often logic based, to multi-agent systems, to languages and architectures necessary to implement them, to data mining techniques and knowledge extraction techniques, that are often based on statistical algorithms and on machine learning technologies in general.
The agent based approach is obtaining a large success in various application fields, since it appears as the synthesis of the best results in the field of software engineering (object oriented programming, distributed systems) with the best results in the field of artificial intelligence (reasoning, planning, and learning).
In USA, this kind of technology is the basis of a large research program, sponsored by DARPA and named I*3 [1], that aims at developing an advanced technology for providing access to information - in the form needed by end users and high-level applications - by intelligently retrieving, filtering, extracting, integrating, and abstracting information from the growing mass of available data.
The importance of research about intelligent agents is also highlighted in the Fifth Framework Program of the European Union. In fact, one of the three thematic programmes concerns "creating a user-friendly Information Society", and it includes themes like "Systems and services for the citizen" and "New methods of work and electronic commerce", in which the role of intelligent software systems, that facilitate the interaction with the machine for the acquisition of the necessary information, is essential.
It is worth repeating that the agent based technology is very general, potentially suitable to address any kind of problem, and that this project inteds to use it in the specific area of extracting, filtering, and classifying structured and unstructured information. In the following, we try to sketch the international state of the art, structuring it according to the schema of the project. The background and the competences of the groups in the consortium are described in the proper section of the forms of each group.
1) Agent system architectures The development of intelligent agents is one of the main research areas in artificial intelligence, as it is witnessed by the international conferences on this subject and the special numbers of important journals [2,3,4,5]. The set of activities and applications an agent can be involved in is quite large: finding and filtering information, handling email, intelligent support to planning activities, selection of relevant material from large and little structured collections, as it is, for example, the web environment. Among the principal directions of artificial intelligence research in [6] it is described an agent that has to operate in an environment, the structure of which is not completely known a priori. The system has to use large amount of knowledge on the way it has to act. Such a knowledge has to be organized in flexible forms, in order to be usable for different tasks, and mechanisms for acquiring knowledge either via learning or collaboration with other agents, let them be either artificial or human, must be developed. The realization of software systems with the above characteristic demands for the integration of different tools and methods developed in artificial intelligence: techniques for problem solving and automated reasoning, knowledge representation, machine learning, planning. Furthermore it requires a careful architectural design, that stimulates research in the field programming languages and system organization.
In realizing agents, the notion of cooperation both with the user and with other agents collaborating in the task is essential [7]. The development of techniques for cooperation (Computer supported Cooperative Work) demands for the integration of communication tools with advanced tools supporting the management of complexity genrated by the growth of using Internet and the Web, along with the evolution of organizations towards network structures, the nodes of which are characterized by high levels of autonomy and by strong needs for a flexible and effective coordination. The design of such tools is more and more oriented to agent technology, that can offer both a reactive and proactive behavior at different levels.
Among the possible programming approaches to the realization of agent cooperation, the declarative approach ha a relevant role. Declarative computation models can be an aggregation point among, often heterogeneous, systems that need to dialogue and cooperate. In this context, cordination languages and models are an useful starting point for the coordination of heterogeneous computing agents.
2) Agent reasoning techniques In general, the coordination models presented in the literature about cooperating and distributed systems lack sophisticated forms of computation and interaction, that are well known in other contexts, like artificial intelligence and logic based declarative languages. For example, to realize models and mechanisms for agent reasoning one can exploit inferential procedures like abduction [8] and induction [9]. These inferential procedures increase the computational abilities of an agent, both if they are used separately and if the are used in aintegrated way. Abduction and induction are inference startegies used in many artificial systems based on logic. However, in general they are used separately, or, if present in the same system, one after the other. Recently, there have been a few proposals for integrating the two procedures, as shown in the workshop held during ECAI96, and later in the one held during IJCAI97. Besides, models and reasoning methods for logical agents can be conveniently integrated with constraint satisfaction techniques, in order to improve the efficiency of the reasoning process.
3. Information and knowledge extractionOne of the most important application oriented sides of the project is the use of agents for the acquisition of information under all possible viewpoints: extraction and classification of knowledge contained in texts and unstructured data in general, data mining, that is abstraction of associations from structured or semi-structured data, learning, that is synthesis of rules and general schemes from examples.
As the ability to access different kinds of information via the Internet is increasingly involving end-users with different skills, the demand for suitable tools for Information Extraction (IE), organization, and integration is becoming more and more pressing to filter relevance and sort the large number of retrieved documents. Information retrieval (IR) is currently attempting to use natural language processing based technologies to improve the recall and precision of retrieved documents in response to user's queries. IR aims at selecting relevant documents, IE aims at extracting facts from the documents. Typically information is spread across several sentences in natural language. The ability to process textual documents is essential to IE. Therefore it should be considered a core language technology.
The existing search engines for the Web perform a contents based search and they yield a plain list of documents, sorted according to the relevance, as results. For example, Lycos has a complete categorization, that is manually maintained by a small group of specifically trained experts. It is obviously unthinkable that this approach can keep the pace with the growth of the Web, that, two years from now, is expected to contain 30 terabytes of material.
As to the extraction of relevant and potentially useful pieces of information from large databases, this one, known as data mining [12], can exploit both numerical and symbolic means of learning (construction of regression functions, induction of classification rules, discovery of association rules and causal models, etc.). Examples of natural application fields of data mining are the analysis of flight reservations to discover general rules of commercial value, the analysis of data about the automatic production of VLSI chips to identify fabrication errors, the analysis of data about the management of communication networks to identify anomalous behaviors, the analysis of scientifical data, as for example electrophoresis data, to identify DNA sequences, the analysis of sale data and other marketing data to quickly identify business opportunities, the analysis of images to identify features.
Another apllication of machine learning techniques to the development of cooperative multi-agent systems concerns the study of the interaction between the user and the system and among the agents of the system. In relation to the interaction between system and user, the computational models of machine learning may come out useful both in the construction of the user model [10] and in the effective, efficient and focused retrieval of information [11], via the possibility of categorization and semantic labeling of concepts. The user modeling has been rather successfully addressed so far by the use of subsymbolic methods and decision trees in order to extract behavioral patterns from the traces of the interactions with the user. Cooperative interaction among reactive distributed agents can be modeled via natural and evolutionary algorithms inpired by natural and biological phenomena.

[1] http://dc.isx.com/I3/

[2] Communications of ACM, Vol 37-7 (1994)

[3] IEEE Expert, Vol 11-6 (1996)

[4] IEEE Expert, Vol 12-5 (1997)

[5] B.A.Nardi, J.R.Miller, O.J. Wright, Communications of ACM, Vol 41-3 (1998):96-104

[6] J. Doyle, T. Dean et al., Strategic Directions in Artificial Intelligence, ACM Computing Surveys, Vol. 28, N. 4, dic. 1996.

[7] Communications of ACM Vol.4-3 (1997)

[8] A.C. Kakas, R.A. Kowalski, F. Toni, Abductive Logic Programming, Journal of Logic and Computation}, 2(6):719-770 (1993).

[9] F. Bergadano, G. Gunetti, "Inductive Logic Programming", The MIT Press, 1996.

[10] M Bauer, W Pohl and G Webb(eds.) Proc. of the UM97 Workshop on "Machine learning for User Modeling" Chia Laguna (Cagliari-Italy), 1997.

[11] O. Etzioni. The World-Wide Web: Quagmire or Gold Mine? Communications of the ACM, Vol. 39-11:65-68 (1996).

[12]U.M. Fayyad, G. Piatetsky-Shapiro, P. Smith, and R. Uthurusamy (Eds.), Advances in Knowledge Discovery and Data Mining, AAAI Press/ The MIT Press (1996).

[13]M.T. Pazienza (ed.), Information Extraction: a multidisciplinary approach to an emerging information technology, Springer Verlag, LNAI 1299 (1997)



2.3 Numero di fasi del Programma di Ricerca: 2


2.4 Descrizione del Programma di Ricerca

Fase 1

Durata 12 mesi    Costo previsto 500,000 milioni

Descrizione:

Testo italiano
Il programma e` organizzato in modo tale da far coesistere due esigenze:


1) definire un obiettivo preciso per ciascuna unita`, in modo tale da rendere misurabile e verificabile l'esito della ricerca. Questa esigenza viene soddisfatta dalla definizione di uno o piu` demonstrators su cui l'unita` e` impegnata;


2) favorire la collaborazione tra le unita`. A questa esigenza il progetto risponde con quattro workshops semestrali, e con lo scambio di software nell'area della costruzione dei sistemi ad agenti, nell'area del ragionamento del singolo agente, e nell'area delle tecniche di estrazione di conoscenza. La natura stessa della tecnologia orientata agli agenti favorira` questo scambio. Infine, nell'ultimo semestre del progetto tutte le unita` cercheranno di finalizzare la tecnologia che hanno sviluppato al progetto di una applicazione integrata (vedi descrizione fase 2)
Architetture dei sistemi di agenti.
In questa area del progetto sono attive le unita` di Torino, Milano e Pisa.
Un sostegno tecnologico al lavoro con alti contenuti professionali, che si basa su varie forme di cooperazione tra soggetti con diverse competenze, richiede alle applicazioni relative di fornire un supporto integrato al lavoro individuale e al lavoro cooperativo.
Tali applicazioni si devono quindi basare su di una infrastruttura tecnologica che puo' essere organizzata in modo efficace come una architettura multi-agente in cui il comportamento dei singoli agenti e' caratterizzato dalla combinazione di comportamento autonomo e di capacita' di interazione con altri agenti sia umani che artificiali.
In questa fase, lo scopo e' la specifica di una architettura multi-agente innovativa che fornisca agli sviluppatori delle applicazioni una serie di funzionalita' (grado di autonomia del singolo agente, mobilita', grado di conoscenza delle funzionalita' degli altri agenti, ...) che possono essere flessibilmente combinate in relazione alle esigenze dell'applicazione stessa.
L'attenzione sara' concentrata principalmente sulle capacita' di interazione di agenti, e quindi sulle seguenti caratteristiche: a) mobilita' (gli agenti devono potersi muovere nella rete andando ad elaborare in un qualunque suo nodo senza intaccare la sicurezza dell'intero sistema e la privatezza delle informazioni che ciascun nodo non vuole rendere pubbliche); b) contestualita' (nel loro operare sulle diverse fonti di informazione gli agenti devono conoscere il processo cooperativo/i processi cooperativi in cui operano, contribuendo a rendere gli attori umani consapevoli del suo evolvere); c) dinamicita' (gli agenti devono essere in grado di assecondare la dinamica del processo/dei processi in cui operano sia riflettendola al loro interno che usandola per dare forma all'interfaccia del che offrono ai loro utenti).
Per lo studio e la progettazione di sistemi di agenti di questo tipo si dovranno prendere in considerazione principalmente problemi modellistici e implementativi.
Le tecnologie indagate, su cui le unita` coinvolte hanno gia` maturato esperienza, sono radicate nella programmazione ad oggetti, nei linguaggi di coordinazione e nella programmazione logica.
Demonstrators Alla fine della prima fase saranno disponibili le specifiche e parte dell'implementazione del sistema MILANO (sviluppato dalla unita` di Milano in collaborazione con quella di Torino) in cui agenti di supporto al cooperative work (conversation handler, workflow management system, organizational handbook) possono interagire, di un dimostratore di un sistema per la localizzazione (ad es. centri commerciali) in territori urbani a redditivita` variabile (sviluppato congiuntamente da Milano e Torino) e del sistema MedLan (sviluppato dall'unita` di Pisa) che consente di costruire agenti mediatori.


Tecniche di ragionamento per agenti
In questa area sono coinvolte le unita` di Torino, Ferrara e Bari.
Il singolo agente deve essere in grado di ragionare sul mondo circostante e pianificare ed intraprendere nuove azioni sulla base degli obiettivi che possiede. A questo scopo, si rendono necessari meccanismi di ragionamento sofisticati, che, da un lato, permettano di pianificare le azioni da compiere dati gli obiettivi e, dall'altro, consentano di ragionare sugli effetti che l'esecuzione di azioni produce sul mondo.
Inoltre un agente, per poter cooperare con altri agenti, deve potersi basare su un modello degli agenti con cui interagisce, che consenta di ragionare sulle loro conoscenze e credenze (belief).
Un agente deve poi avere la capacita' di aggiornare e rivedere le proprie credenze a seguito di interazioni con l'ambiente circostante. Ed infine l'agente deve possedere tecniche di ragionamento che gli consentano da apprendere dalle interazioni che ha.
In questa fase ci si propone di mettere a punto gli strumenti formali e metodologici che consentano di affrontare le problematiche sopra elencate.
Verranno utilizzate tecniche di logica computazionale, basate principalmente su logiche modali (con cui si possono esprimere in modo naturale azioni, conoscenze e credenze) e non monotone, e meccanismi inferenziali quali abduzione, induzione e tecniche di soddisfacimento di vincoli.
Una delle attivita` principali sara` dedicata alla finalizzazione delle tecniche di ragionamento a favorire l'interazione con altri agenti (ragionamento non monotono e con informazione incompleta).


Demonstrators Sara` progettato dall'unita` di Ferrara un sistema interattivo di risoluzione dei vincoli e, da parte dell'unita` di Bari, la specifica e parte dell'implementazione di un Learning Server, inteso come insieme di strumenti per l'acquisizione e la manutenzione automatica di conoscenza. Torino finalizzera` il progetto di tecniche di ragionamento agli agenti per estrazione di informazione sviluppati dalla stessa unita`.


Estrazione di Informazione e conoscenza
In questa area sono coinvolte le unita` di Torino, Roma "La Sapienza", Roma "Tor Vergata", Pisa, Ferrara, Firenze, e Bari.
L'attivita` di questa area e` finalizzata alla progettazione e alla realizzazione di agenti estrattori di conoscenza da fonti non strutturate e da fonti strutturate.
Per le fonti non strutturate uno dei filoni piu` importanti e` quello del progetto di agenti per il filtraggio e la classificazione di testi estratti dalla rete, basato su tecniche di elaborazione del linguaggio naturale. Questo tipo di approccio sara` portato avanti principalmente dalle unita` di Torino, Pisa, Roma "La Sapienza" e Roma "Tor Vergata" , che svilupperanno tecniche di parsing e metodi di apprendimento automatico di informazioni linguistiche (lessici di dominio, terminologia, nomi propri ecc.) utilizzando modelli teorici nell'area del conceptual clustering e del calcolo delle probabilita`.
Le tecniche di parsing di archivi testuali sono finalizzate a costruire modelli linguistici di domini applicativi specifici, che consentano poi, con tecniche simboliche e statistiche, la classificazione di eventi specifici nei testi e la loro descrizione sintetica in forma strutturata.
L'unita` di Firenze affrontera` lo stesso tipo di problema, ovvero l'estrazione di informazione da testi, usando invece una tecnica basata su architetture connessioniste.
Per quanto concerne le fonti strutturate Bari e Pisa saranno impegnate nello studio di tecniche di data mining per l'estrazione di informazione da database relazionali e nello studio di metodi per presentare la conoscenza estratta in modo coerente ed adattato all'utente. Inoltre le unita` di Ferrara e di Bari si occuperanno di definire algoritmi di apprendimento in grado di sintetizzare conoscenza simbolica da informazioni incomplete, mediante l'integrazione di induzione e deduzione. L'idea guida dell'attivita` di data mining e` quella di integrare algoritmi di data mining tradizionali, basati sulla statistica, in un contesto di logica computazionale, che consenta forme di ragionamento (induttivo e abduttivo) meno rigide.
Nella prima fase l'attivita` delle unita` sara` dedicata alla finalizzazione delle tecniche di acquisizione al progetto dei dimostratori. I risultati saranno quindi sia di tipo teorico-metodologico che di tipo progettuale.
Demonstrators Torino progettera`un parser robusto basato sulla conoscenza appresa mediante la metodologia che verra` sviluppata nel progetto. Il prototipo sara` in grado di accedere ai testi di verifica e di estrarre da essi semplici informazioni. L'unita` di Torino progettera` anche un sistema per il data mining operante su dati complessi. In particolare per l'estrazione di informazioni da database relazionali. L'unita` di Firenze progettera` un prototipo di classificazione di documenti (acquisiti tramite scanner) in grado di determinare la struttura del documento in modo da consentire la successiva estrazione di informazione testuale e grafica. L'unita` di Roma Tor Vergata, dopo aver collezionato una base di documenti selezionata da articoli di natura finanziaria del quotidiano Il Sole 24 ore (di almeno 1.000.000 di parole), e relativa ad un dominio conoscitivo condiviso con le unita` di Roma la Sapienza e Pisa, progettera` un sistema adatto a modellare i concetti di similitudine e/o attinenza tra le interrogazioni dell'utente e le rappresentazioni generate automaticamente per i documenti elaborati con metodi di NLP. Le descrizioni ottenute sono usate per derivare automaticamente strutture privilegiate della ricerca e categorie. Bari finalizzera` le sue ricerche nel progetto del learning server prima descritto e, per la parte di presentazione dei risultati dell'estrazione, di un generatore general-purpose di documenti ipermediali in Java. L'unita` di Pisa, infine, concentrera` i suoi sforzi progettuali in quest'area in un categorizzatore di risposte fornite dal motore di Ricerca Arianna, in un estrattore di informazioni da notizie di agenzia economiche, e nel progetto di integrazione in MedLan di algoritmi di data mining.
Testo inglese
The organization of the project is aimed at satisfying two different goals:


1) assigning a specific goal to each partner of the consortium, in order to allow the measurability and verifiability of results. This need is satisfied by giving each partner the task of realizing one or more demonstrators;


2) fostering the collaboration among partners. This need is satisfied through the organization of four workshops, one every six months, and by the exchange of software in the field of realizing agent systems, in the field of reasoning procedures, and in the field of knowledge extraction. The very nature of agent technology will favor this exchange. Finally, in the last semester of the project all partners will be required to finalize the technology they have developed to the design of an integrated application (see description of phase
Agent system architectures
The partners active in this area are Torino, Milano and Pisa.
A system supporting a highly professional job, that is based on various forms of cooperation among subjects with different abilities, must provide an integration between the support provided at the individual level and the support provided to cooperation activities.
The architecture of such systems can be effectively organized as a multi-agent architecture, where the behavior of the single agent is characterized by the combination of autonomous behavior, and the ability of interacting with other, both artificial and human, agents.
The aim of this phase is the design of an innovative multi-agent architecture, that provides application developers a collection of functions (supporting the definition of the degree of autonomy of the single agent, its mobility, the degree of knowledge of the abilities of other agents, etc.), that can be flexibly combined to satisfy application needs. The main focus will be on interaction abilities, that is on the following features: a) mobility (the agents are free to move on the network and they can compute in any node without hampering the security of the system and the privacy of the hosting node); b) context awareness (when acting on information sources, agents must be aware of the cooperative process they are part of, and the have to contribute to making the human agents aware of its evolution); c) dynamics (agents must be capable of adapting their behavior to the evolution of the process the are taking part in, both by reflecting inside the process and by continuously adapting their interface).
The study and design of agents of the above nature will require the solution of modeling and implementation models.
The employed techniques, that are already in the background of the partners, are rooted in object oriented programming, in coordination languages and in logic programming.


Demonstrators The specifications and part of the implementation of the system MILANO (developed by the working group in Milano in collaboration with the working group in Torino) will be available at the end of Phase 1. In MILANO, agents supporting cooperative work (conversation handler, work-flow management system, organizational handbook) will interact. The working groups in Milano and Torino will also jointly develop an application of MILANO for the localization (e.g. of commercial centers) in urban areas characterized by varying degrees of profitability. Pisa will complete the design of the logic language MedLan oriented to program mediators.


Agent reasoning techniques
Torino, Ferrara and Bari are the partners involved in this area.
A single agent must be able to reason about the surrounding world, to make plans, and initiate new activities on the basis of its goals. To this end, it is necessary to use sophisticated reasoning procedures, that, on one side, allow the agent to plan the actions, given the goals, and, on the other one, allow the agent to reason about the effects of its action on the world.
Furthermore, an agent, in order to cooperate with other agents, must have a model of the agents it interacts with, in order to be able to reason about their knowledge and beliefs.
An agent must be able to update and revise its own beliefs, because of the interactions with the environment. Finally the agent must be equipped with reasoning techniques that allow it to learn from the interactions.
In this phase the work of the partners will focus on defining the formal and methodological means necessary to address the problems listed above. The employed techniques will be drawn from computational logic, and they will be mainly based on modal logics (by which actions, knowledge, and beliefs can be naturally represented) and nonmonotonic logics, and inferential procedures like abduction, deduction, and constraint satisfaction.
One of the focus will be the finalization of reasoning techniques to support the interaction with other agents (non-monotonic and incomplete knowledge reasoning).


Demonstrators Ferrara will design an interactive system for constraint solving, and Bari will specify and partially implement a Learning Server, that is a set of tools for the acquisition and maintenance of knowledge. Torino will finalize the design of the reasoning techniques to the support of the information extraction agents developed by the same working group.
BR>
Information and knowledge extraction
The following partners are involved in this area: Torino, Roma "La Sapienza", Roma "Tor Vergata", Pisa, Ferrara, Firenze, and Bari.
The activities in this area are finalized to the design and realization of agents for information extraction from structured and unstructured sources.
As to unstructured sources, one of the most important issue is the design of agents to filter and classify texts taken from the network by using natural language processing techniques. This kind of approach will be pursued mainly by the working groups in Torino, Pisa, Roma "La Sapienza" and Roma "Tor Vergata", that will develop parsing techniques, new methods for acquisition of lexical information, and systems for automatic extraction from documents of: verb argument structures, lexicons, domain terminologies, proper names and entities, document abstracts. The approach will be based on theoretical models in the field of conceptual clustering and probability theory.
The parsing techniques for textual archives are finalized to the construction of linguistic models in specific application domains. Such models are then exploited, via symbolic and statistic techniques, to discover specific events in texts, and to construct their synthetic structured description.
The working group in Firenze will address the same kind of problem, that is, information extraction from texts, by using a technique based on connessionist architectures.
Concerning structured data sources, Bari and Pisa will work on designing data mining techniques to extract information from relational databases, and in the design of methods for presenting the extracted knowledge in a coherent and user-tailored way. Furthermore, the Ferrara and Bari will define learning algorithms capable of synthesizing symbolic knowledge from incomplete information, by using a combination of deduction and abduction. The key idea of the data mining activity is to integrate traditional data mining algorithms, based on statistic principles, in a computational logic context, that allows more flexible reasoning procedures (inductive and abductive).
In Phase 1, the activity of the working groups will be devoted to the information extraction techniques to the design of the demonstrators. The results will be both of theorical and methodological kind and of design kind.
Demonstrators Torino will design a robust parser based upon the knowledge acquired via the methodology developed in the project. The prototype will be able to work on trial texts and to extract simple pieces of information from them. Torino will also design a system for mining data from complex data systems, especially from relational databases. Firenze will design a system for the classification of documents (digitized via scanner) capable of determining the structure of the document. Later the classification will be used to drive the extraction of graphic and textual information from the documents. By collecting articles from the newspaper "Il Sole 24 Ore" (at least 1.000.000 words), a document base shared among the two units of Roma "la Sapienza" and Pisa will be realized. Such a document base will be used to support the system implementing the model for evaluating relevance/attinence of automatically retrieved documents by NLP methodologies in respect to user queries. Document representations will be used to derive automatically documents clusters. Bari will finalize its research in defining the learning server, described above, and, concerning the presentation of the results of extractions, of a general purpose generator of hyper-media documents in Java. Pisa will focus its efforts in this area towards the design of a categorizer of answers provided by the search engine Arianna, the design of an information extraction working on business agency news, and in the design of integrating data mining algorithms in MedLan.


Risultati parziali attesi:

Testo italiano
Nel workshop aperto che chiude la fase uno saranno presentati:
1) tre reports, uno per sottoarea. Ciascuno di questi reports sara` formato da una collezione di articoli scientifici, preceduta da una introduzione ragionata del responsabile della sottoarea, che avra` lo scopo di evidenziare soprattutto i risultati delle collaborazioni;
2) Il documento di specifica di ciascun demonstrator.
Testo inglese
At end of Phase 1, we will organize an open workshop in which we will present:
1) three reports, one for each area. Each report will collect research papers of the partners, and an introduction of the area coordinator, especially aimed at pointing out the results of collaborations;
2) The design document for each demonstrator.


Unita' di ricerca impegnate:

Fase 2

Durata 12 mesi    Costo previsto 564,000 milioni

Descrizione:

Testo italiano
La seconda fase sara` principalmente dedicata alla prototipazione dei dimostratori progettati nella fase 1, anche se l'indagine sui temi piu` teorici non sara` abbandonata.
Inoltre nell'ultimo semestre del progetto, allorche` le specifiche dei meccanismi di cooperazione tra agenti, la natura degli agenti per il ragionamento e la natura degli agenti per l'estrazione saranno fissate, verra` effettuato il disegno di una applicazione complessa che, in un follow up del progetto sia effettivamente realizzata.
L'area considerata per l'applicazione e` la scoperta di "insider trading" che richiede: estrazione di informazioni da database (transazioni di borsa), estrazione di informazioni da testo (notizie di agenzia ecc.), ragionamento di tipo deduttivo e abduttivo e applicazione di tecniche basate su soddisfacimento di vincoli sull'informazione estratta, presentazione dei risultati, combinazione degli agenti di estrazione, degli agenti di ragionamento sui dati estratti e degli agenti di presentazione su un'unica architettura coerente. A tutte le unita` sara` chiesto di dare un contributo a questo progetto.
Testo inglese
Phase 2 will be principally dedicated to prototyping the demonstrators designed in Phase 1. However the studies on more foundational subjects will be continued.
Furthermore, in the last six month of the project, when the specifications of cooperation mechanisms among agents, the nature of the reasoning procedures for agents, and the nature of the techniques used by the extraction agents will be established, a complex application will be design. We expect that the design be implemented in a follow-up of the project.
The area we will consider is the "discovery of insider trading", that requires: information extraction from databases (stock transactions), information extraction from text (agency news, newspaper articles), deductive, abductive, and constraint based reasoning on the extracted information, presentation of results, and combination of extraction agents, reasoning agents, and presentation agents in a single coherent architecture. All partners will contribute to this design.


Risultati parziali attesi:

Testo italiano
Nel workshop aperto che chiude la fase due saranno presentati:
1) tre reports, uno per area. Ciascuno di questi deliverables sara` formato da una collezione di articoli scientifici, preceduta da una introduzione ragionata del responsabile della sottoarea, che avra` lo scopo di evidenziare soprattutto i risultati delle collaborazioni.
2) La specifica dell'applicazione all'"insider trading" che sara` usata come strumento unificante per combinare i risultati delle unita`.
3) I demonstrators.
Testo inglese
In the open workshop closin Phase 2, we will present:
1) three reports, one for each area. Each report will collect research papers of the partners, and an introduction of the area coordinator, especially aimed at pointing out the results of collaborations;
2) The design of the "insider trading discovery" application, that will be used to show how the results of the partners fit together.
3) the demonstrators


Unita' di ricerca impegnate:


2.5 Criteri suggeriti per la valutazione globale e delle singole fasi:
Testo italiano
La gestione del progetto e` affidata ad un comitato di indirizzo formato dal coordinatore nazionale (Franco Turini) e da un responsabile per ciascuna sottoarea del progetto: G. De Michelis per la sottoarea "architetture per agenti", A.Martelli per la sottoarea "ragionamento", P.Velardi per la sottoarea "estrazione di informazione". Il comitato di indirizzo avra` la responsabilita` primaria di supervedere l'esecuzione del programma, di facilitare l'interazione tra le unita`, e di coordinare la presentazione dei risultati del progetto.
Il progetto, biennale, avra` quattro momenti di verifica:
6 mesi: meeting di verifica dello stato di avanzamento;
12 mesi: workshop aperto con presentazione dei deliverables;
18 mesi: meeting di verifica dello stato di avanzamento;
24 mesi: workshop aperto con presentazione dei risultati finali.
Il progetto potra` essere valutato a partire dai deliverables prodotti dopo la fase 1 (12 mesi) e alla fine del progetto (24 mesi).
Il prodotto finale sara` costituito dall'insieme di demonstrators prodotti e dal progetto di applicazione integrata che verra` sviluppato nella seconda meta` della seconda fase.
La misura del successo potra` essere valutata considerando l'originalita` e la qualita` degli articoli scientifici raccolti nei rapporti annuali, il livello di integrazione dei risultati scientifici evidenziato dalla introduzione al report di ciascuna sottoarea, e la funzionalita` dei deminstrators prodotti.
Testo inglese
The project is managed by a steering committee including the national coordinator (Franco Turini) and a coordinator for each area of the project: G. DeMichelis for the "Agent system architecture" area, A.Martelli for the "agent reasoning techniques" area, and P.Velardi for the "information and knowledge extraction" area. The steering committee will be responsible for the supervision of the execution of the programme, for facilitating the interaction among teams, and for coordinating the presentation of the results of the project.
The two year project has four checkpoints:
after 6 months: progress assessment meeting;
after 12 months: open workshop for the presentation of deliverables;
after 18 months: progress assessment meeting;
after 24 months: open workshop for the presentation of final results.
The project can be evaluated on the basis of the deliverables presented after phase 1 (12 months) and at the end of the project (24 months).
The final product will be made of the set of demonstrators and the design of the integrated application, developed in the last semester.
A measure of success will be the originality and quality of the papers collected in the yearly reports, the level of integration of scientific results, as outlined in the introduction of the report of each area, and the functional performance of the demonstrators.



3.1 Spese delle Unita’ di Ricerca:

Unita' di ricerca Voce di spesa
Materiale invent. Grandi Attrez. Materiale di consumo Spese per cal. ed elab. dati Pers. a contratto Servizi esterni Missioni Altro TOTALE
DE MICHELIS GIORGIO 30,000 0,000 15,000 15,000 40,000 0,000 50,000 0,000 150,000
ESPOSITO FLORIANA 20,000 0,000 26,000 0,000 18,000 0,000 40,000 0,000 104,000
MARTELLI ALBERTO 50,000 0,000 12,000 30,000 55,000 0,000 106,000 13,000 266,000
MELLO PAOLA 18,000 0,000 5,000 20,000 24,000 0,000 65,000 0,000 132,000
PAZIENZA MARIA TERESA 22,000 0,000 6,000 0,000 20,000 0,000 12,000 0,000 60,000
SODA GIOVANNI 15,000 0,000 5,000 10,000 0,000 0,000 30,000 0,000 60,000
TURINI FRANCO 30,000 0,000 2,000 0,000 72,000 0,000 68,000 20,000 192,000
VELARDI PAOLA 30,000 0,000 0,000 0,000 20,000 0,000 50,000 0,000 100,000
TOTALE 215,000 0,000 71,000 75,000 249,000 0,000 421,000 33,000 1064,000



3.2 Costo complessivo del Programma di Ricerca e risorse disponibili :

Unita' di ricerca Voce di spesa
RD RA RD+RA Cofinanziamento richiesto al MURST Costo totale del programma Costo minimo
DE MICHELIS GIORGIO 0,000 45,000 45,000 105,000 150,000 90,000
ESPOSITO FLORIANA 15,000 21,000 36,000 68,000 104,000 70,000
MARTELLI ALBERTO 80,000 0,000 80,000 186,000 266,000 190,000
MELLO PAOLA 39,600 0,000 39,600 92,400 132,000 90,350
PAZIENZA MARIA TERESA 8,000 10,000 18,000 42,000 60,000 39,000
SODA GIOVANNI 11,000 7,000 18,000 42,000 60,000 39,000
TURINI FRANCO 18,800 38,800 57,600 134,400 192,000 125,000
VELARDI PAOLA 30,000 0,000 30,000 70,000 100,000 65,000
TOTALE 202,400 121,800 324,200 739,800 1064,000 708,350



3.3 Costo minimo per garantire la possibilità di verifica dei risultati:
  708,350 (dal sistema, quale somma delle indicazioni dei Modelli B)
  708,350 (dal Coordinatore del Programma)

Si ricorda che la somma di risorse disponibili( o acquisibili) deve essere pari al 30% per programmi Interuniversitari e al 50 % per programmi Intrauniversitari del costo totale ammissibile del Programma.

 

(per la copia da depositare presso l’Ateneo e per l’assenso alla diffusione via Internet delle informazioni riguardanti i programmi finanziati e la loro elaborazione necessaria alle valutazioni; legge del 31.12.96 n° 675 sulla "Tutela dei dati personali")



Firma ________________________________________ 28/04/1998 17:39:35