ministero dell'istruzione, …web.pd.astro.it/wp10/docs/progetto firb.doc · web viewthe...

380
MINISTERO DELL'ISTRUZIONE, DELL'UNIVERSITÀ E DELLA RICERCA Dipartimento per la Programmazione il Coordinamento e gli Affari Economici Servizio per lo sviluppo e il Potenziamento delle Attività di ricerca (SSPAR) PNR 2001-2003 (FIRB art.8) D.M. 199 Ric. del 8 marzo 2001 Anno 2001 - Protocollo: RBNE01KNFP Parte I "Il Progetto" MACRO OBIETTIVO Crescita Competitiva Sostenibile PROGRAMMA STRATEGICO Tecnologie abilitanti per la Societa' della conoscenza ICT Proposta progettuale attinente Reti e netputing 1.1 Titolo del Progetto di Ricerca PIATTAFORME ABILITANTI PER GRIGLIE COMPUTAZIONALI A ELEVATE PRESTAZIONI ORIENTATE A ORGANIZZAZIONI VIRTUALI SCALABILI ENABLING PLATFORMS FOR HIGH-PERFORMANCE COMPUTATIONAL GRIDS ORIENTED TO SCALABLE VIRTUAL ORGANIZATIONS 1.2.a Risultati attesi n º Articolazione Descrizione 1 . Piattaforme abilitanti complesse ad oggetti distribuiti orientate a differenti domini applicativi basate anche sullo sviluppo delle architetture innovative di wireless L’area scientifica di questa proposta progettuale è quella delle piattaforme abilitanti ICT per sistemi distribuiti di tipo Griglie Computazionali a elevate prestazioni, orientate allo sviluppo di applicazioni multidisciplinari complesse e Organizzazioni Virtuali scalabili, in contesti caratterizzati da elevata dinamicità e eterogeneità. Le tecnologie oggetto della proposta coprono tutti i livelli di sistema: dalle reti ad alta velocità con tecnologia ottica, ai servizi di Middleware, agli strumenti e ambiente di programmazione basato su componenti ad alte prestazioni. La proposta prevede lo sviluppo di dimostratori della tecnologia nei domini applicativi dell’Astrofisica, Osservazione della Terra, Biologia, Chimica Computazionale e

Upload: dinhdung

Post on 03-Apr-2018

215 views

Category:

Documents


0 download

TRANSCRIPT

MINISTERO DELL'ISTRUZIONE, DELL'UNIVERSITÀ E DELLA RICERCA

Dipartimento per la Programmazione il Coordinamento e gli Affari Economici Servizio per lo sviluppo e il Potenziamento delle Attività di ricerca (SSPAR)

PNR 2001-2003 (FIRB art.8) D.M. 199 Ric. del 8 marzo 2001

Anno 2001 - Protocollo: RBNE01KNFP

Parte I "Il Progetto"

MACRO OBIETTIVO Crescita Competitiva Sostenibile 

PROGRAMMA STRATEGICO Tecnologie abilitanti per la Societa' della conoscenza ICT 

Proposta progettuale attinente Reti e netputing  

1.1 Titolo del Progetto di Ricerca

PIATTAFORME ABILITANTI PER GRIGLIE COMPUTAZIONALI A ELEVATE PRESTAZIONI ORIENTATE A ORGANIZZAZIONI VIRTUALI SCALABILI

ENABLING PLATFORMS FOR HIGH-PERFORMANCE COMPUTATIONAL GRIDS ORIENTED TO SCALABLE VIRTUAL ORGANIZATIONS

1.2.a Risultati attesi nº Articolazione Descrizione1. Piattaforme abilitanti complesse ad

oggetti distribuiti orientate a differenti domini applicativi basate anche sullo sviluppo delle architetture innovative di wireless  

L’area scientifica di questa proposta progettuale è quella delle piattaforme abilitanti ICT per sistemi distribuiti di tipo Griglie Computazionali a elevate prestazioni, orientate allo sviluppo di applicazioni multidisciplinari complesse e Organizzazioni Virtuali scalabili, in contesti caratterizzati da elevata dinamicità e eterogeneità. Le tecnologie oggetto della proposta coprono tutti i livelli di sistema: dalle reti ad alta velocità con tecnologia ottica, ai servizi di Middleware, agli strumenti e ambiente di programmazione basato su componenti ad alte prestazioni. La proposta prevede lo sviluppo di dimostratori della tecnologia nei domini applicativi dell’Astrofisica, Osservazione della Terra, Biologia, Chimica Computazionale e Geofisica. Si ritiene che i risultati di questa ricerca trovino applicazione anche in piattaforme facenti uso di strutture di comunicazione basate sulla tecnologia wireless: infatti, la proposta progettuale è stata coordinata con quella del CNIT, sulle reti wireless, nello stesso settore Reti e Netputing. 

2. Reti adattive all'informazione   Nell’ambito delle reti adattive all’informazione un ruolo centrale viene rivestito dalle Griglie Computazionali in quanto infrastrutture nate per risolvere problemi di coordinamento di risorse e servizi in regime di elevata dinamicità e eterogeneità, in modo da garantire i desiderati livelli di performance, sicurezza, tolleranza ai guasti e qualità del servizio. Questo risultato atteso ed il precedente, visti in modo integrato e concomitante, rappresentano quindi l’obiettivo primario di questa proposta progettuale. 

3. Web server ad alte prestazioni   Anche l’aspetto dei Web server ad alte prestazioni è adeguatamente coperto da questa proposta progettuale. La problematica dei Web server ad alte prestazioni è infatti esplicitamente presente, a livello Middleware, in termini di tecniche innovative di Load Balancing per Web Search e di Web Switching, dunque concentrandosi sugli aspetti tra i più critici dal punto di vista delle prestazioni. Lo studio dell’aspetto dei Web server ad alte prestazioni in un contesto più generale di piattaforme abilitanti di Grid Computing permette di non limitare i risultati all’attuale tecnologia Web, bensì di renderli adatti alle future evoluzioni dei sistemi distribuiti e da alte prestazioni. 

1.2.b Costituzione, potenziamento e messa in rete di Centri di alta qualificazione scientifica, pubblici o privati

L’area scientifica di questa proposta progettuale è quella delle piattaforme abilitanti ICT per sistemi distribuiti di tipo Griglie Computazionali a elevate prestazioni, orientate allo sviluppo di applicazioni multidisciplinari complesse e Organizzazioni Virtuali scalabili, in contesti caratterizzati da elevata dinamicità e eterogeneità. Le tecnologie oggetto della proposta coprono tutti i livelli di sistema: dalle reti ad alta velocità, ai servizi di Middleware, agli strumenti e ambiente di programmazione. La proposta prevede lo sviluppo di dimostratori della tecnologia nei campi dell’ Astrofisica, Osservazione della Terra, Biologia, Chimica Computazionale e Geofisica.

Il progetto vede la partecipazione di sei Centri di Alta Qualificazione scientifica:

Tre centri del CNR: ISTI (Istituto di Scienza e Tecnologie dell’Informazione, Pisa); CPS (ex Centro di Studio per il Calcolo Parallelo e i Supercalcolatori, ora sezione di Napoli dfell’ICARP), e ISTM (Istituto per le Scienze e le Tecnologie Molecolari, sezione di Perugia),

INFN: Istituto Nazionale di Fisica Nucleare, sezione di Padova, ASI: Centro di Geodesia Spaziale (Matera) dell’Agenzia Spaziale Italiana, CNIT: Laboratorio di Reti Fotoniche (Pisa) del Consorzio Nazionale Interuniversitario per le

Telecomunicazioni.

Ognuno di questi centri corrisponde ad una Unità di Ricerca (UR) del progetto, e coordina la partecipazione di ricercatori di altri istituti e dipartimenti universitari sedi dei più qualificati gruppi di ricerca nazionali, oltre che di un selezionato numero di gruppi di ricerca internazionali, altri enti e partner industriali a tecnologia avanzata.

Come emerge dalle schede di presentazione delle singole UR si tratta, anche grazie alla capacità di aggregamento di ricercatori universitari e di altri enti, di Centri leader nei propri settori di interesse scientifico e tecnologico. Basti pensare al prestigio internazionale, acquisito anche attraverso innumerevoli collaborazioni con le principali istituzioni mondiali, dell’ISTI-CNR nell’informatica in generale, ed in particolare nel calcolo parallelo e Calcolo ad Alte

Prestazioni, nel Grid Computing, nel Data/Web Mining, nei motori di ricerca, nel Calcolo Distribuito e Web Server, nell’elaborazione di immagini e GIS;

del CPS-CNR nel calcolo parallelo, nel software matematico, nelle applicazioni scientifiche, nelle basi di dati e Data Mining (ISI), nelle applicazioni data intensive, nella sicurezza;

dell’ISTM-CNR negli aspetti più avanzati della chimica computazionale, anche attraverso tecnologie per il Calcolo ad Alte Prestazioni nelle sue varie accezioni;

del CNIT nei diversi aspetti delle telecomunicazioni e, in particolare, nelle reti ad alta velocità e delle tecnologie wireless;

dell’INFN in molti campi di applicazioni scientifiche computation-intensive e data.-intensive, e nelle tecnologie di Grid Computing (progetto DataGrid),

dell’ASI negli algoritmi, tecnologie ed applicazioni di Osservazione della Terra, anche attraverso il Calcolo ad Alte Prestazioni,e delle tecnologie di Grid Computing (Università di Lecce – ISUFI).

Tutti i Centri si distinguono inoltre per le intense collaborazioni con industrie a tecnologia avanzata e con utenti applicativi pubblici e privati,

2

per l’Alta Formazione sviluppata attraverso corsi di laurea, borse di studio, stages, dottorati di ricerca, ecc, anche grazie a convenzioni già operanti tra università e istituzioni di ricerca.

La messa in rete di ricerca dei sei Centri è operante ormai da vari anni, grazie alla collaborazione su progetti e iniziative del settore, come da esempio il Progetto PQE2000 (CNR, INFN, ENEA, industrie del settore) e ASI-PQE2000, Agenzia 2000 del CNR, Progetti Strategici del Fondo Speciale coordinati dal CNR e dal CNIT, progetti nazionali e europei (come DataGrid) coordinati da INFN. Questa organizzazione ha dato, e sta dando, luogo a molte iniziative tecnologiche e multidisciplinari, che contribuiscono ad allargare le conoscenze e la qualificazione dei Centri stessi e dei loro collaboratori.In questa proposta, la messa in rete è resa effettivamente operativa dall’infrastruttura di Grid che il progetto realizzerà su scala nazionale appoggiandosi alla rete GARR. Infatti, gli obiettivi tecnologici e applicativi delle piattaforme di Grid, menzionati in precedenza, costituiscono un elemento fondamentale per la effettiva collaborazione in progetti di ricerca scientifica ed in iniziative di interesse pubblico e sociale: tale tecnologia favorisce principalmente le ricerche multidisciplinari e le Organizzazioni Virtuali scalabili, che rappresentano chiare e avanzate applicazioni del concetto di “rete scientifica e tecnologica”.

UNA INFRASTRUTTURA DI GRID DISPONIBILE A LIVELLO NAZIONALE

In questa proposta non viene fatta richiesta di finanziamento di infrastrutture, in quanto la realizzazione di una infrastruttura avanzata per la Grid della ricerca su scala nazionale fa parte integrante della proposta progettuale stessa. Va comunque fatto presente che la Grid del progetto

potrà essere messa a disposizione di altre proposte progettuali, o di altre iniziative scientifico-tecnologico che ne possano beneficiare,

permetterà di rafforzare anche la messa in rete di altri utenti ed altri Centri di Alta Qualificazione per supportare ricerche interdisciplinari e multidisciplinari.

The scientific area of this proposal is the one of enabling ICT platforms for distributed high-performance Computational Grids, oriented to the development of complex multidisciplinary applications and scalable Virtual Organizations in highly dynamic and heterogeneous context. The target technologies covers all the system levels: from the high-speed networks, to the Middleware services, to the programming tools and environment. The proposal contains the development of demonstrators in the fields of Astronomy, Earth Observation Systems, Biology, Computational Chemistry and Geophysics. Six High Qualitification Centres will participate to the project:

Three centers from CNR (National Research Council): ISTI (Istituto di Scienza e Tecnologie dell’Informazione, Pisa); CPS (ex Centro di Studio per il Calcolo Parallelo e i Supercalcolatori, now ICARP, section of Naples), and ISTM (Istituto per le Scienze e le Tecnologie Molecolari, section of Perugia),

INFN: National Institute of Nuclear Physics, Padua section , ASI: Centro di Geodesia Spaziale (Matera) of the Italian Space Agency, CNIT: Photonic Network Lab (Pisa) of the Consorzio Nazionale Interuniversitario per le

Telecomunicazioni.

Every one of these Centres corresponds to a Research Unit (RU) of the project and coordinates the participation of researchers from other institutes and university departments which host the most qualified national research groups, as well as of a selected number of international research groups.

As it can be seen in the presentation of every RU, we can affirm that such Centres are leaders in their own scientific and technological sectors, also owing to their capability of aggregating researchers from Universities and other institutions. It is sufficient to think to the prestige, acquired also through many collaborations with the main institutions in the world, of ISTI-CNR in Computer Science in general, and in particular in parallel processing, High Performance

Computing, Grid Computing (CNUCE), Data/Web Mining, search engines, Distributed Processing and Web Servers, image processing and GIS;

CPS-CNR in parallel processing, numeric software, scientific applications, data bases and Data Mining (ISI), data intensive applications, security;

3

ISTM-CNR in the most advanced aspects of Computational Chemistry, also through various approaches and technologies for High Performance Computing;

CNIT in the various aspects of telecommunications and, in particular, in high speed networks and wireless technologies;

INFN in many scientific applications fields, both computation-intensive and data-intensive, and in technologies for Grid Computing (DataGrid project);

ASI in algorithms, technologies and applications of Earth Observation Systems, also through High Performance Computing, and in the field of Grid Computing (University of Lecce – ISUFI).

All these Centres are very active in collaborations with advanced technology industries and with public and private applicative users;

High-level Education and Training through graduate and undergraduate curricula, fellowships and stages, PhD courses, etc, also owing to existing collaborations between Universities and research Centres.

These six Centres are already connected by virtual research networks since several years, thanks to the participation to projects and initiatives of this sector: PQE2000 (CNR, INFN, ENEA, high-tec industries), ASI PQE2000, CNR Agenzia 2000, Strategic projects of the Special Fund coordinated by CNR and CNIT, national and European projects coordinated by INFN (e.g. DataGrid). This organization has produced, and is producing, many technological and multidisciplinary initiatives that contribute to increase the skill and the qualifications of the Centres themselves and of their collaborators.

In this proposal, the Centres internetworking will be made completely operational by the GRID infrastructure that the project will implement on a national basis on top of the GARR network. In fact, the already mentioned technological and applicative goals of GRID platforms represent a fundamental item needed to make effective the cooperation in scientific project research and in public and social interest initiatives: such technology favours the multidisciplinary research and the scalable Virtual Organizations, which represent clear and advanced applications of the “scientific and technological network” concept.

A GRID INFRASTRUCTURE AT THE NATIONAL LEVEL

In this proposal no request is done for financing an infrastructure, since the realization of an advanced Grid infrastructure at the national level is an important goal of the project itself.However, it is important to notice that the Grid of the project can be rendered available to other research proposals or to other scientific-technological initiatives that

could benefit of it, will also enforce the internetworking of other Centres of High Qualification to support the interdisciplinary

and multidisciplinary research.

1.3 Abstract del Progetto di Ricerca

Questa proposta progettuale, coordinata dal CNR, si colloca nel contesto scientifico e tecnologico delle nuove piattaforme di ICT e sistemi distribuiti su larga scala, con l’obiettivo generale di definire, realizzare e sperimentare sistemi e strumenti software innovativi a tutti i livelli, nonché di dimostrarne le capacità mediante alcune applicazioni specifiche.

Questa tematica ha suscitato, negli ultimi anni, un enorme aumento di interesse, non solo negli USA ma anche in Europa come comprovato da diversi progetti, come ad esempio e-science in UK, e dalle azioni comunitarie in preparazione del VI Framework. L’obiettivo di queste nuove tecnologie è di migliorare drasticamente l’impatto delle ICT nel sistema economico, commerciale e industriale, ed anche di giocare un ruolo importante nell’evoluzione delle scienze computazionali. Alle nuove piattaforme ICT è richiesto di supportare, efficientemente e in maniera sicura e controllata, il coordinamento e l’integrazione nelle condivisione delle risorse e nel problem solving in un contesto di Organizzazioni Virtuali scalabili (VO) dinamiche e multi-istituzionali. La caratteristica dei VO (insiemi di individui e/o istituzioni legate dalla necessità di condividere risorse per risolvere un problema complesso) è di essere fortemente dinamici in struttura, forma, durata e composizione: è questo che pone una nuova e strategica sfida alle tecnologie ICT.

4

Questa proposta, a forte carattere interdisciplinare, intende definire, realizzare e applicare soluzioni innovative per piattaforme abilitanti di network computing, orientate a VO scalabili e basate sul paradigma di “Grid Computing”. Oltre che sull’aspetto della piattaforma basata su una infrastruttura distribuita, in questa proposta speciale enfasi è posta sul requisito delle elevate prestazioni delle applicazioni sviluppate su Grid. Ciò significa che lo studio dell’integrazione di sistemi e risorse, ed il trattamento dell’eterogeneità e della dinamicità, deve coprire esplicitamente il caso in cui i nodi della Grid, in generale distribuiti su scala geografica o su reti virtuali private, siano sistemi ad alte prestazioni, come macchine parallele o cluster/Beowulf. La ricerca sull’aspetto delle alte prestazioni si estende su tutti i livelli della piattaforma: dalla rete di comunicazione ad alta banda, ai servizi di middleware, ed in particolare la gestione delle risorse, agli strumenti e ambienti di programmazione.

A livello di modello e ambiente di programmazione, il requisiti delle elevate prestazioni implica che, nella progettazione di VO scalabili, viene utilizzato un approccio unificante alla sviluppo di applicazioni, capace di tenere conto sia degli aspetti della distribuzione delle computazioni e delle risorse, che degli aspetti di parallelismo. L’ambiente di programmazione deve dunque essere caratterizzato da assoluta portabilità attraverso vari tipi di sistemi hardware- software e loro combinazioni in un contesto di eterogeneità e dinamicità. Fondamentali per l’ambiente di programmazione sono gli aspetti dell’interoperabilità degli strumenti e del riuso di applicazioni ad alte prestazioni.

La ricerca sulla gestione delle risorse, a livello di middleware, include aspetti della massima importanza come discovery, brokering, scheduling, monitoring e valutazione/predizione delle prestazioni.Il tema delle reti ad altissima velocità per supportare piattaforme abilitanti di Grid per Vo scalabili è particolarmente sentito a livello internazionale. In questa ricerca, un ruolo importante è svolto dalla sperimentazione di reti ottiche ad altissima banda, con tecnologia fotonica, in piattaforme Grid con siti ad alte prestazioni che si estendono su scala metropolitana. Il coordinamento degli aspetti dell’ambiente di programmazione, della gestione delle risorse a livello middleware, e delle reti ad alta banda permetterà di studiare e valutare nuovi approcci alla definizione di piattaforme abilitanti complesse per network computing. Queste dovranno essere “caratterizzabili”, in modo flessibile e modulare, in vari ambiti, come griglie di cluster o macchine parallele.

5

Programming Tools and Environment

High Level

Internet/GARR Optical Networks High-Performance Networks

Data IntensiveCore Services Scheduling Monitoring Communication

Knowledge Services Security Resource

Brokers

• Components• Libraries

• Adaptability• Resource Mngt

• Cost Models• Multidisciplinary

ProblemSolving Env.

E-Science & EngineeringApplications

• Astrophysics• Geology

• Biology• Earth Observation Systems

• Chemistry• Environment

MiddlewareLow Level

GridPortals

Oltre che sugli aspetti degli ambienti di programmazione e della gestione delle risorse, la tecnologia software oggetto della proposta include alcuni aspetti fondamentali legati al middleware: sicurezza: ambienti di Grid sicuri e cooperazione tra ambienti Grid appartenenti a differenti organizzazioni;

servizi data intensive: servizi di “federated” database, visualizzazione e gestione gerarchica dei dati e meta-dati secondo tecniche avanzate ad alte prestazioni;

servizi di knowledge discovery: servizi di Grid (data mining, search engine, etc) che forniscano un accesso consistente, pervasivo ed efficace a risorse computazionali high-end. Di grande interesse sono anche le tecniche per lo sfruttamento della Grid come sofisticato strumento di “Web computing”;

portali per Grid: servizi applicativi Web-enabled, come la possibilità per l’utente di sottomettere e collezionare risultati per i propri job nei confronti di risorse remote tramite una interfaccia Web.

La ricerca sugli ambiente di programmazione è completata dalla definizione e realizzazione di librerie scientifiche in forma adatta alla utilizzazione in un contesto eterogeneo e dinamico come quello delle Grid.

Per poter realizzare e sperimentare le idee ed i risultati del progetto, verrà realizzata una infrastruttura di Grid, su scala nazionale, che si appoggia sulla rete GARR e che, a livello di alcuni siti metropolitani, utilizza l’interconnesione in fibra ottica. Questo risultato del progetto mette a disposizione della comunità una Grid nazionale, da utilizzare per la ricerca in diversi settori della scienza computazionale, ma anche in applicazioni commerciali, industriali e di servizio sociali.La proposta comprende lo sviluppo di alcuni dimostratori selezionati in settori applicativi ritenuti del massimo interesse, non solo per il valore scientifico che rivestono di per se, ma soprattutto come test-bed per piattaforme Grid ad elevate prestazioni:

Osservazione della Terra, Geofisica, Astronomia, Biologia, Chimica Computazionale.

Le attività di ricerca sono organizzate su quindici WorkPackage, dei quali due nell’area Reti ad Alta Velocità, cinque nell’Area del Middleware, due nell’area degli Strumenti e Ambiente di Programmazione, cinque nell’area dei Dimostratori Applicativi, ed uno di Gestione del Progetto.

Ogni WP produrrà metodologie, sperimentazioni e valutazioni, e un prototipo innovativo dell’oggetto del WP stesso.

Gli obiettivi di questa proposta progettuale sono perfettamente in linea con, e danno significativi contributi originali a, quelli delle più avanzate iniziative a livello internazionale, sia a livello europeo che mondiale.Il Comitato Guida del progetto includerà tre esperti internazionali.Il progetto vede la partecipazione di sei Centri di Alta Qualificazione scientifica: ISTI-CNR, CPS-CNR, ISTM-CNR, ASI, CNIT, e INFN. La loro messa in rete di ricerca è operante ormai da vari anni, grazie alla collaborazione su vari progetti e iniziative del settore, ed è resa effettivamente operativa dall’infrastruttura di Grid che il progetto realizzerà su scala nazionale.Le attività di tutte le Unità di Ricerca si svolgono nell’ambito di diverse collaborazioni con prestigiose istituzioni di ricerca internazionali operanti nel settore. Alcune UR includono personale di istituzioni estere o internazionali (ISTI, CNIT, ASI).

Alle attività di tutte le UR partecipano o collaborano aziende e PMI ad alta tecnologia. Il progetto è coordinato nelle linee generali strategiche con la proposta del CNIT su reti wireless. Questa proposta intende svolgere un ruolo importante nella formazione di giovani aventi figure professionali ad alta qualificazione. Una quota rilevante (23%) del costo del progetto è riservata a contratti a giovani ricercatori.

This project proposal, coordinated by the National Research Council (CNR), is defined within the scientific and technological context of new ITC platforms and of large scale distributed systems. The goal is to study and to experiment systems and software tools that turn out to be innovative at all levels, as well as to demonstrate their capabilities through some specific applications.

6

During the last years, this research track originated a large interest grown, not only in USA but also in Europe, as proved by different research projects, e.g. the e-science project in UK or the European Community actions in the VI Research Framework. These new technologies are aimed at drastically improving the impact of ICT in the economics, commerce and industry, as well as to play an important role in the evolution of computational sciences. The new ITC platforms are required to support, efficiently and in a secure and controlled way, resource sharing and integration in a scalable Virtual Organization (VO) context. VOs (sets of individuals or organizations that need to share resources to solve a given complex problem) have a strong dynamic structure, form, lasting and composition: this poses new strategic challenges to ITC technology.

This proposal, having a strong interdisciplinary character, is aimed at defining, implementing and applying innovative solutions for network computing enabling platforms, oriented towards scalable VOs and based on the “Grid Computing” paradigm.

Ahead of the distributed platform based on a distributed infrastructure aspect, in this proposal a special emphasis is placed on the high performance requirement of the applications developed on Grid. This means that the study of the integration of systems and resources, as well as heterogeneity and dynamic situations management, must explicitly handle the case of Grid nodes (which in general geographically distributed or placed on private virtual networks) being high performance systems, such as parallel machine architectures or (Beowulf) clusters. The research on high performance extends to all the platform levels, from high bandwidth network to middleware services, and, in particular, resource management, as well to tools and programming environments.

At the programming model and environment level the high performance requirement implies that, in the design of scalable VOs, a unifying approach in the development of application should be used. Such approach is able to take into account both the aspects related to the distribution of computations and resources, and of those related to parallelism. The programming environment must therefore be characterized by absolute portability on different hardware-software systems (or different hardware-software

7

Programming Tools and EnvironmentHigh Level

Internet/GARROptical NetworksHigh-Performance Networks

Data IntensiveCore ServicesSchedulingMonitoringCommunication

Knowledge ServicesSecurity ResourceBrokers

•Components•Libraries•Adaptability•Resource Mngt•Cost Models•MultidisciplinaryProblemSolving Env.E-Science & EngineeringApplications•Astrophysics•Geology•Biology•Earth Observation Systems•Chemistry•Environment

MiddlewareLow LevelGridPortals

combinations) in an heterogeneous and dynamic context. Portability must be guaranteed not only for code: portability must mainly ensure that the performance matches the configuration of the target system at hand. Fundamental to the programming environment are tool interoperability and high performance application reuse.

The research on resource management, at middleware level, includes aspects of maximal importance as discovery, brokering, scheduling, monitoring and performance evaluation/prediction.

High speed networks needed to support enabling Grid platforms for scalable VOs is an internationally recognized “hot” topic. Within this research activity an important role is played by experiments on very high bandwidth optical networks, based on photonic technology for Grid platforms with high performance sites that extend to metropolitan area.

The coordinated investigation of programming environment, resource management at the middleware level and high bandwidth networks will stimulate new approaches to the definition of complex enabling platforms for network computing to be studied and evaluated. The features of such architectures must be provided in a flexible and modular way, in different contexts, like Grids of clusters or parallel machines.

Beyond the aspects concerning programming environments and resource management, the software technology studied in this proposal includes some fundamental aspects related to Middleware:

security: secure Grid environments and cooperation among Grid environments belonging to different organizations;

data intensive services: federated database services, visualization and hierarchical management of data and meta-data according to advances and high-performance techniques;

knowledge discovery services: Grid services (data mining, search engines, etc.) that provide consistent, efficient and pervasive access to high end computational resources. The techniques aimed at exploiting Grid as a sophisticated “Web computing” tool are also of great interest;

Grid portals: Grid enabled applicative services, e.g. the possibility provided to the user to submit tasks and collect results to remote jobs via Web interface.

The design and implementation of scientific libraries suitable to be used in an heterogeneous and dynamic context, such as the one of Grid, completes the research on programming environments.

In order to be able to implement and experiment the ideas and the results of the project, a Grid infrastructure will be implemented, on a national scale, based on the GARR network and using, in some metropolitan sites, optical fiber interconnection. This project result provides the community with a national Grid to be used in different computational science research sectors, and also for commerce, industrial and social service applications.

The proposal includes the development of some demonstrators selected within applicative fields that are of maximum interest, not only for their scientific value, but also as testbeds for high performance Grid platforms:

Earth observation Geophysics Astronomy Biology Computational chemistry

The research activities are organized around fifteen WorkPackages: two in the area of High-speed Networks, five in the area of Middleware, two in the area of Programming Tools and Environment, five in the area of Applicative Demonstrators, and one for Project Management.

Each WP will produce methodologies, experiments and evaluations, and an innovative prototype of the WP subject.The goals of this project proposal are perfectly in line with the more advanced international initiatives, and will give original contributes to them, both at European and at worldwide level.

The Project Steering Committee will include three international experts nominated by CNR.

Six High Qualitification Centres will participate to the project: ISTI-CNR, CPS-CNR, ISTM-CNR, ASI, CNIT and INFN. They are already connected by research networks since several years, thanks to the participation

8

to projects and initiatives of this sector. This internetworking will be made completely operational by the Grid infrastructure that this project will implement on a national basis: in fact, the already mentioned technological and applicative goals of Grid platforms represent a fundamental item needed to make effective the cooperation in scientific project research and in public and social interest initiatives.

The activities of all the Research Units include several collaborations with prestigious international research institutions in this area. Some RUs include researchers of foreign or international institutions (IST, CNIT, ASI).

High technology industries and SME participate or collaborate with all the UR.

This project is coordinated, on the general strategic lines, with the CNIT proposal on wireless networks.

This proposal is aimed at playing an important role in the training of highly qualified young people. A relevant part (23%) of the project cost is reserved to contracts for young researchers.

1.4 Informazioni generali 1.4.1 Durata del Progetto di Ricerca 36 mesi  

1.4.2 Mesi uomo complessivi dedicati al Progetto di Ricerca 4.022 

1.4.3 Costo totale del Progetto (MLit) 43.943 (22694.67 KEuro) 

1.4.4 Finanziamento richiesto (MLit) 19.878 (10266.13 KEuro) 

1.4.5 Numero di contratti triennali per giovani ricercatori 63 

          Costo totale (MLit) 10.117 (5224.99 KEuro) 

1.4.6 Numero di contratti triennali per ricercatori di chiara fama 0 

          Costo totale (MLit) 0 (0.00 KEuro) 

1.4.7 Numero delle Unità di Ricerca (UR) coinvolte 6 

1.4.8 Quota % minima di partecipazione di una singola UR al costo totale della Proposta Progettuale 10 

nº Istituzione Numero UR

Quota % complessivadi partecipazione delle URal costo totale della Proposta Progettuale

1. AGENZIA SPAZIALE ITALIANA (ASI)   1   10  2. CNIT, CONSORZIO NAZIONALE INTERUNIVERSITARIO

PER LE TELECOMUNICAZIONI  1   19  

3. CONSIGLIO NAZIONALE DELLE RICERCHE (CNR)   3   53  4. ISTITUTO NAZIONALE DI FISICA NUCLEARE   1   17       6    

9

1.4.11 Infrastrutture Numero di Infrastrutture 0 

Costo Totale (MLit) 0 (0.00 KEuro) 

Disponibilità a stralciare e rimodulare le previsioni delle Infrastrutturein Presenza di un Progetto di Infrastrutture comuni ad uno o più Grandi Progetti Obiettivo

 

1.5 Soggetto Istituzionale contraente Denominazione Consiglio Nazionale

delle Ricerche - Istituto di Elaborazione della Informazione, Pisa 

       

Natura giuridica Ente di Ricerca          

Domicilio fiscale via G. Moruzzi,1         

CAP 56124  Città   Pisa  Provincia PISA  Telefono 050 3152880  Fax   050 3152 811  Email   [email protected] 

Codice fiscale 8005430586  P.IVA 02118311006     

Codice anagrafe ricerche

F129003U         

1.5.a Legale rappresentante Cognome MAESTRINI (PER IL

PROF. LUCIO BIANCO) Nome   PIERO  Data di

Nascita  09/01/1938 

Sesso   M   Codice Fiscale  

MSTPRI38A09C847E  Luogo di Nascita  

COLLE DI VAL D'ELSA 

    Provincia   SIENA   Nazione   ITALY  

1.6 Parole chiave

1. Griglie Computazionali 2. Piattaforme Abilitanti a Elevate Prestazioni 3. Organizzazioni Virtuali Scalabili 4. Applicazioni Multidisciplinari 5. Middleware 6. Strumenti di Sviluppo Applicazioni 

1. Computational Grids 2. High-performance Enabling Platforms 3. Scalable Virtual Organizations 4. Multidisciplinary Applications 5. Middleware 6. Tools for Application Development 

10

1.7 Coordinatore scientifico della ricerca (Principal Investigator) VANNESCHI  MARCO  VNNMRC44S21A561H 

(cognome)   (nome)   (CF)  

Professore Universitario (Ordinario)  INF/01  21/11/1944 

(qualifica)   (settore)   (data di nascita)  

Consiglio nazionale delle ricerche (CNR) 

ISTI-CNR   

(Istituzione di appartenenza)(art.5, c.1, DM citato)  

(Dipartimento/Istituto/Divisione/Settore)   (posizione)  

0502212738  0502212726  [email protected] 

(prefisso e telefono)   (numero fax)   (indirizzo posta elettronica)

Referenze nº Cognome Nome Email Istituzione1. Hey  Tony  [email protected]  Dept. of Electronics

and Computer Science, University of Southampton, UK 

2. Messina  Paul  [email protected]  CACR, California Institute of Technology, Pasadena, CA 91125 

3. Skillicorn  David  [email protected]  Department of Computing and Information Science, Queen's University, Kingston Ontario, Canada 

1.8 Curriculum scientifico

Marco Vanneschi ha svolto la sua attività di ricerca e didattica nell'area dei Sistemi di Elaborazione, ed in particolare architetture parallele e piattaforme abilitanti complesse a elevate prestazioni, modelli e strumenti di programmazione parallela, ambienti per lo sviluppo di applicazioni parallele portabili, parallelizzazione di paradigmi data intensive. In questi settori ha coordinato diversi progetti nazionali ed internazionali, tra cui il Sottoprogetto Architetture Parallele del Progetto Finalizzato CNR Sistemi Informatici e Calcolo Parallelo; il Progetto PQE2000 (CNR, ENEA, INFN, industrie del settore), e relative collaborazioni con Sogei/Ministero delle Finanze e con il progetto Eureka HPPC/SEA; il progetto ASI-PQE2000 su tecnologie ad alte prestazioni per applicazioni di Osservazione della Terra; il progetto Agenzia 2000 del CNR su ambienti di programmazione multidisciplinari ad alte prestazioni; proposte CNR su piattaforme ad alte prestazioni per il Fondo Ricerca Speciale .

The research and teaching interests of Marco Vanneschi are in the area of Processing Systems, in particular parallel architectures and enabling complex platforms for High Performance Computing (HPC), models and tools for parallel programming, environments for the development of portable parallel applications, parallelization of data intensive paradigms.In these fields he has coordinated several national and international projects. Among them: the Special Project on Parallel Architectures of CNR; the PQE2000 project (CNR, INFN, ENEA, high-tech industries) and PQE2000 collaborations with Sogei/Ministry of Finance and with the HPPC/SEA Eureka project; ASI-

11

PQE2000 project on HPC technologies for Earth Observation Systems applications; Agenzia 2000 project of CNR on HPC multidisciplinary programming environments; CNR proposals on HPC platforms for the Special Research Programme.

1.9 Pubblicazioni scientifiche più significative del Coordinatore della Ricerca nº Pubblicazione1. M. COPPOLA; VANNESCHI M. (2001). High-Performance Data Mining with Skeleton-based

Structured Parallel Programming PARALLEL COMPUTING. (pp. 22 pagine.) Lavoro accettato per la pubblicazione.  

2. VANNESCHI M. (2000). Parallel Paradigms for Scientific Computing LECTURE NOTES IN CHEMISTRY. (vol. 75 pp. 170-183)  

3. B. BACCI; M. DANELUTTO; S. PELAGATTI; VANNESCHI M. (1999). SkIE: a Heterogeneous Environment for HPC Applications PARALLEL COMPUTING. (vol. 25 pp. 1827-1852)  

4. VANNESCHI M. (1998). PQE2000: HPC Tools for Industrial Applications IEEE CONCURRENCY. (vol. 6 pp. 68 - 73)  

5. VANNESCHI M. (1998). Heterogeneous HPC Environments LECTURE NOTES IN COMPUTER SCIENCE. (vol. 1470 pp. 21-34)  

1.9.a Titoli scientifici più significativi del Coordinatore della Ricerca

POSIZIONE ATTUALE Professore Ordinario di Informatica presso il Dipartimento di Informatica dell’Università di Pisa, dal 1981 Collaboratore dell’Istituto CNUCE del CNR, Pisa

PUBBLICAZIONI

Autore di più di 150 articoli scientifici pubblicati su riviste internazionali e su atti di conferenze internazionali,

Autore di tre libri sull'architettura dei sistemi di elaborazione e sulla programmazione concorrente, Co-autore o editor scientifico di sei libri scientifici internazionali.

COORDINAMENTO DI PROGETTI e PROPOSTE DI RICERCA Coordinatore del Sottoprogetto “Architetture Parallele”, Progetto Finalizzato CNR Sistemi Informatici e

Calcolo Parallelo, 1989-1994 Direttore Scientifico del Progetto PQE2000, Protocollo d’Intesa tra CNR, ENEA, INFN, Alenia

Aerospazio (1996-2000), e relative collaborazioni con Sogei/Ministero delle Finanze (1998) e con il progetto Eureka HPPC/SEA (1999)

Co-coordinatore del Progetto ASI-PQE2000 su “Sviluppo di Applicazioni di Osservazione della Terra mediante Sistemi e Strumenti ad Alte Prestazioni” (2001 – 2004)

Co-coordinatore del Progetto Fondo Speciale 1999 “Grid Computing: Tecnologie Abilitanti e Applicazioni per eScience”, proponente CNR

Coordinatore della proposta di Progetto Fondo Speciale 2000 “Tecnologie dell’informazione e della Comunicazione: Piattaforme e Applicazioni Distribuite , Flessibili e Di Qualita’ – Attività su Piattaforma Distribuita ad Alte Prestazioni”, proponente CNR

GRUPPI DI LAVORO MURST e COMITATI SCIENTIFICI DI CENTRI DI RICERCA Membro del Gruppo di Lavoro del MURST per il Calcolo ad Alte Prestazioni (1996-97), nell’ambito del

quale ha coordinato la scrittura del Rapporto sullo Stato del Calcolo ad Alte Prestazioni e la proposta di Programma Nazionale di Ricerca e Formazione sul Calcolo ad Alte Prestazioni

Revisore MURST/MIUR di Progetti di Ricerca Applicata e di Scuole Avanzate Membro del Comitato Scientifico dell’IRSIP-CNR di Napoli e del CSCISM-CNR di Perugia

LAVORI INVITATI

12

Invited Speaker alle conferenze e workshop internazionali: Massively Parallel Programming Models (1998), EuroPar (1998), High-performance Systems, Tools and Applications (1998), Parallel and Distributed Processing EUROMICRO (1999), RCI European Member Management Symposium (1997)

Invited paper a IEEE Concurrency.

GRUPPI DI LAVORO E COMITATI SCIENTIFICI DI CONFERENZE E RIVISTE INTERNAZIONALI Membro del Working Group 10.3 dell'IFIP dal 1995 Membro dello Steering Committee di EuroPar (1998-1999) Membro di molti Comitati di Programma di congressi internazionali Membro del Comatato di Programma delle riviste “Concurrency: Practice and Experience” e “Parallel

Processing Letters” Program Chairman della Conferenza ParCo (Parallel Computing) 2001, Napoli

ORGANIZZAZIONE DELLA DIDATTICA Presidente del Corso di Laurea in Scienze dell’Informazione, Università di Pisa (1984-87) Relatore di moltissime tesi di laurea Supervisore di otto tesi di Dottorato in Informatica Membro della Commissione per la nuova struttura dei livelli di laurea in Informatica, Università di Pisa

(2000-01)

CURRENT POSITION* Full Professor of Computer Science at the Department of Computer Science, University of Pisa, since 1981 * Collaborator of CNUCE-CNR Institute, Pisa

PUBLICATIONS* Author of more than 150 scientific publications on international journals and conference proceedings,* Author of three books on computer systems architecture and on concurrent programming,* Co-author or scientific editor of six international scientific books.

COORDINATION OF RESEARCH PROJECTS AND PROPOSALS* Coordinator of the Subproject “Parallel Architectures”, Special CNR Project on Informatics and Parallel Processing, 1989-1994* Scientific Director of PQE2000 Project, Agreement CNR, INFN, ENEA, Alenia Aerospazio (1996-2000), and its collaborations with Sogei/Ministry of Finance (1998) and HPPC/SEA Eureka Project (1999)* Co-coordinator of ASI-PQE2000 Project on “Development of Earth Observation Systems applications by systems and tools for High Performance Computing”* Co-coordinator for CNR of the Strategic Project 1999 on “Grid Computing: Enabling Technologies and Applications for e-science”, * Coordinator for CNR of the Strategic Project 2000 on “ICT Platforms and Distributed, Flexible and Quality Applications – Activity on High Performance Distributed Platform”,

WORKING GROUPS OF MURST/MIUR AND SCIENTIFIC COMMITTEES OF RESEARCH CENTRES* Member of the official Working Group of MURST (Ministry for University and of Scientific and Technological Research) on High Performance Computing (1996-97). In this context he has coordinated the State-of-the-Art Report on High Performance Computing and the proposal of a National Programme of Research and Education in High Performance Computing* Reviewer for MURST of Applied Research Projects and of Advanced Schools* Member of Scientific Committe of IRSIP-CNR, Naples and of CSCISM-CNR, Perugia

INVITED PAPERS* Invited Speaker to international conferences e workshops: Massively Parallel Programming Models (1998), EuroPar (1998), High-performance Systems, Tools and Applications (1998), Parallel and Distributed Processing EUROMICRO (1999), RCI European Member Management Symposium (1997)* Invited paper to IEEE Concurrency.

WORKING GROUPS AND SCIENTIFIC COMMITTEES OF CONFERENCES AND JOURNALS* Member of Working Group 10.3 of IFIP since 1995* Member of EuroPar Steering Committee (1998-1999)

13

* Member of several Program Committees of international conferences * Member of the Program Committee of the journals “Concurrency: Practice and Experience” and “Parallel Processing Letters”* Program Chairman of ParCo (Parallel Computing) 2001 Conference, Naples

ORGANIZATION OF UNIVERSITY CURRICULA* President OF Computer science undergraduate curriculum, Università di Pisa (1984-87)* Supervisor of many Graduation theses* Supervisor of eight PhD dissertations in Computer Science* Member of the Commission for the new Syllabus in Computer Science (2001)

1.10 Elenco delle Unità di Ricerca (UR) nº Responsabile

scientificoQualifica Posizione Settore sc.

disc. di riferimento

Istituzione Dip/Ist/Div/Sez Mesi/uomo

1. LAFORENZA DOMENICO

Ricercatore  

    Consiglio nazionale delle ricerche (CNR)  

CNUCE   894  

2. ROSI MARZIO  

Direttore     CHIM/07   Consiglio nazionale delle ricerche (CNR)  

Istituto di Scienze e Tecnologie Molecolari - Sezione di Perugia (ex-CSCISM)  

566  

3. MURLI ALMERICO  

Professore Ordinario  

Direttore   MAT/08   Consiglio nazionale delle ricerche (CNR)  

Centro di Ricerche per il Calcolo Parallelo e i Supercalcolatori - CPS  

735  

4. MAZZUCATO MIRCO  

Dirigente di Ricerca

responsabile UR INFN  

FIS/04   Istituto nazionale di fisica nucleare  

INFN sezione di Padova  

624  

5. PRATI GIANCARLO

Direttore   Professore ordinario  

ING-INF/03  

CNIT, CONSORZIO NAZIONALE INTERUNIVERSITARIO PER LE TELECOMUNICAZIONI  

Direzione   675  

6. MILILLO GIOVANNI  

Primo Tecnologo

    Agenzia Spaziale Italiana (ASI)  

Unità O.T. COSMO-SkyMed  

528  

                    4022 

1.11 Breve descrizione delle Unità di Ricerca

UNITÀ DI RICERCA ISTI-CNR (DR. DOMENICO LAFORENZA)L’Unità di Ricerca ISTI associa diversi gruppi afferenti al CNR e ad Università italiane e straniere. Il personale del CNR afferisce ai seguenti Istituti: ISTI, Istituto per la Matematica Applicata (IMA) di Genova, Istituto di Ricerca sull'Ingegneria delle Telecomunicazioni e dell'Informazione (IRITI) di Torino e Istituto di Tecnologie Biomediche Avanzate (ITBA) di Milano.Il personale universitario afferisce a: Dipartimento di Automatica e Informatica del Politecnico di Torino, Dipartimento di Informatica dell’Università di Milano Bicocca, Dipartimento di Informatica dell’Università di

14

Pisa, Dipartimento di Informatica dell’Università di Venezia, Dipartimento di Ingegneria dell’Informazione dell’Università di Siena e al Dipartimento di Sistemi ed Informatica dell’Università di Firenze.Il principale obiettivo perseguito dall'UR è lo sviluppo di infrastrutture software e di tool di programmazione che consentano l'accesso agevole, affidabile e trasparente alle risorse della griglia ad elevate prestazioni. In particolare l'UR studierà come utilizzare e sfruttare in ambiente Grid sia la parallelizzazione parallela strutturata che la tecnologia a componenti, con lo scopo di realizzare una nuova generazione di ambienti di sviluppo per applicazioni multidisciplinari ad alte prestazioni. Inoltre, l’UR si pone l'obiettivo dei servizi di Data Mining e dello sfruttamento della griglia come sofisticato strumento di Web-computing ad elevate prestazioni per Knowledge Discovery.

UNITÀ DI RICERCA ISTM CNR (PROF. MARZIO ROSI)Questa Unità di Ricerca e' costituita da *) istituti del CNR: l'Istituto di Scienze e Tecnologie Molecolari (sede di Milano, sezioni di Perugia e Padova), e l'Istituto di Metodologie Inorganiche e dei Plasmi (sezione di Bari, sede di Roma);*) dipartimenti universitari: i Dipartimenti di Chimica delle Università di Perugia, Napoli "Federico II" e Bari, il Dipartimento di Chimica Fisica e Inorganica dell'Università di Bologna, il Dipartimento di Scienza del Farmaco dell'Università di Chieti, il Dipartimento di Chimica Inorganica, Metallorganica e Analitica dell'Università di Padova, il Dipartimento di Ingegneria Civile ed Ambientale dell'Università di Perugia, il Dipartimento di Matematica ed Informatica dell'Università di Perugia e l'Unità di Progetto "Calcolo e Reti ad Alte Prestazioni (HPCN)" dell'Ente per le Nuove tecnologie, l'Energia e l'Ambiente (ENEA).L'insieme di queste strutture e competenze scientifiche permette la costituzione di una griglia di laboratori distribuiti sul territorio potrà funzionare come un sistema di prova per sviluppare mezzi e ambienti che permettano l'implementazione di quattro dimostratori delle simulazioni realistiche a priori di grandi molecole, sistemi gassosi, fasi condensate tali da permettere il design di nuovi farmaci, materiali innovativi, device per computer e la comprensione di fenomeni ambientali complessi e processi tecnologici.

UNITÀ DI RICERCA CPS-CNR (PROF. ALMERICO MURLI)L’unità di ricerca CPS-CNR è composta da ricercatori afferenti a:*) CERE-CNR (PA), CPS-CNR (NA), IFCAI-CNR (PA), ISI-CNR (CS), che confluiranno nel costituendo Istituto del CNR denominato Istituto di Calcolo e Reti ad Alte Prestazioni (ICARP), *) CED-CNR (RM), Seconda Università di Napoli, Università della Calabria(CS), Università del Sannio, Università de L’Aquila, Università di Firenze, Università di Genova, Università di Napoli “Federico II”, Università di Napoli “Partenope”, Università di Roma "Tor Vergata".L’UR opera principalmente nel WP dedicato alle Grid-enabled Scientific Libraries (di cui è responsabile) e nel WP su Programming Tools and Environment, con l’obiettivo di facilitare lo sviluppo di applicazioni scientifiche portabili ad alte prestazioni su Grid. Inoltre, l’UR coordina il WP sulla Security e partecipa ai WP su Knowledge Services e EOS.

UNITÀ DI RICERCA INFN (PROF. MIRCO MAZZUCATO)L’Istituto Nazionale di Fisica Nucleare (INFN) è un ente di ricerca pubblico, che promuove, coordina e finanzia ricerche di fisica nucleare e delle alte energie. Dall’Ottobre 1999 l’INFN ha dato vita ad un progetto pilota in collaborazione con il gruppo di Globus per investigare una possibile utilizzazione di tale software nella Fisica delle Alte Energie. L’INFN partecipa come partner principale ai progetti internazionali DataGRID e DataTAG, finanziati dalla Comunità Europea e al comitato di coordinamento Intergrid tra Europa, USA e ASIA. L’attività dell’UR INFN é sui WP: Grid Deployment, Data Intensive Core Services, Grid Applications for Astrophysics, for Biology, for Geophysics.L’obiettivo principale dell'UR nel progetto è quello di offrire un ambiente grid di produzione per mezzo di applicazioni reali con dati reali presi dalla Biologia, Astrofisica, Osservazione della Terra, Geofisica e Vulcanologia. I requisiti tecnici di queste applicazioni comprendono il supporto per hardware e sistemi operativi dedicati e l’accesso trasparente a dati distribuiti e archivi dedicati.

UNITÀ DI RICERCA CNIT (PROF. GIANCARLO PRATI)L'unità di ricerca CNIT principalmente svilupperà la propria attività all'interno del laboratorio Nazionale di Reti Fotoniche localizzato a Pisa.Il lavoro dell'Unità di Ricerca copre sia i temi delle reti fotoniche che quelli delle tecnologie fotoniche a supporto del grid computing. Riguardo le reti fotoniche la principale attività è focalizzata sui metodi di mappaggio efficiente del protocollo IP su una rete di trasporto DWDM, semplificando la pila di protocolli IP/ATM/SDH/DWDM. Efficienti realizzazioni di aggregazione ed ingegneria del traffico basate sulla combinazione IP/MPLS sono oggetto di studio intenso. In particolare si stanno analizzando applicazioni che necessitano di elevate larghezze di banda sul test-bed denominato VESPER (Very High Speed Experimental Ring). Per quanto riguarda le tecnologie fotoniche, sono previsti studi intrecciati dal punto di vista

15

architetturale e tecnologico per la realizzazione di nuovi dispositivi per reti tutto-ottiche a supporto del grid-computing.L'organizzazione della ricerca è strutturata su due workpackages: Grid Oriented Optical Switching Paradigms, e High performance Photonic Test bed.

UNITÀ DI RICERCA ASI (DR. GIOVANNI MILILLO)Questa Unità di Ricerca raccoglie sotto la responsabilità dell’Agenzia Spaziale Italiana un istituto del CNR (lo IESI di Bari, Istituto per Elaborazione dei Segnali e delle Immagini), il Dipartimento di Elettronica ed Elettrotecnica del Politecnico di Bari, il Dipartimento Interateneo di Fisica, dell’Università di Bari, l’ISUFI (Istituto Superiore Universitario per la Formazione Interdisciplinare) dell’Università di Lecce, il centro ESRIN dell’Agenzia Spaziale Europea (ESA) e la società E-Geos.Questa UR ha la responsabilità dei WP su Grid Applications for Earth Observation Systems, e su Grid Portals.L’obiettivo delle attività previste su EOS è la realizzazione di un dimostratore applicativo nell’ambito delle Osservazioni della Terra che, utilizzando la tecnologia GRID e mettendo a frutto le precedenti esperienze nel campo dell’HPC (ASI-PQE2000), abbia come finalità quella di rendere disponibili agli utenti finali i dati, i prodotti ed i servizi che sono patrimonio di ASI come risultato delle diverse missioni (dati acquisiti durante missioni spaziali ed aeree finanziate dall’ASI, dati disponibili all’ASI grazie ad accordi Internazionazionali, dati acquisiti durante campagne di validazione). Il progetto prevede prevede lo sviluppo di un’infrastruttura dedicata alla gestione dei dati e finalizzata ad interfacciare gli utenti tramite un portale dedicato che interconnette i diversi Centri di Eccellenza, distribuiti sul territorio, che potrà funzionare come un test-bed per integrare i dimostratori delle applicazioni di OT ed interfacciare gli utenti tramite un portale dedicato.

RESEARCH UNIT ISTI CNR (DR. DOMENICO LAFORENZA)The ISTI’s Research Unit (RU) involves professors, researchers, technologists, PhD students, technicians and temporary position researchers, belonging to different CNR and academic research groups from Italian and foreign universities. CNR people belongs to the following CNR’s Institutes: ISTI, Institute for Applied Mathematics (IMA, Genoa), the Research Institute on Computer and Telecommunication Engineering (IRITI, Turin) and, the Institute of Advanced Biomedical Technologies (ITBA, Milan).The academic people belongs to: Department of Automation and Informatics-Polytechnic of Turin, Department of Computer Science-University of Milan “Bicocca”, Department of Computer Science-University of Pisa, Department of Computer Science-University of Venice, Information Engineering Department-University of Siena and, Department of Systems and Computer Science-University of Florence. The main goal of this RU in this project is the development of software infrastructures and programming tools enabling an easy, seamless and reliable access to the high-performance Grid resources. In particular, the RU will study how to use and exploit structured parallel programming models and component-based technologies in a Grid environment, in order to design a new generation of programming environment for high-performance multi-disciplinary applications. Moreover, the activity is related to the development of Data Mining services and to the exploitation of Grid as a very sophisticate high-performance "Web-computing" tool for Knowledge Discovery.

RESEARCH UNIT ISTM CNR (PROF. MARZIO ROSI)The Research Unit is constituted by *) Institutes of the Italian National Research Council (CNR): the Institute for Molecular Sciences and Technologies (Milan, Perugia and Padua), and the Institute for Inorganic Methodologies and Plasmas (Bari, Rome);*) University Departments: the Department of Chemistry of the Universities of Perugia, Naples "Federico II" and Bari, the Department of Physical and Inorganic Chemistry of the University of Bologna, the Department of Pharmaceutical Sciences of the University of Chieti, the Department of Inorganic, Metallorganic and Analytical Chemistry of the University of Padua, the Department of Civil and Environmental Engineering of the University of Perugia, the Department of Mathematics and Computer Science of the University of Perugia and the Project Unit "High Performance Computing and Networks (HPCN)" of the Italian Institution for new technologies, energy and environment (ENEA). This cluster of structures and competences renders it possible the constitution of a grid of geographically distributed laboratories will act as a test-bed to develop tools and environments allowing the implementation of four demonstrators of the above mentioned a priori simulations: molecular beams gas phase processes, liquid crystal systems, large molecules reactivity, and nanostructured materials.

RESEARCH UNIT CPS-CNR (PROF. ALMERICO MURLI)

16

CPS-CNR research unit is composed of researchers from:*) CERE-CNR (PA), CPS-CNR (NA), IFCAI-CNR (PA), ISI-CNR (CS), that are going to establish a new CNR institute named "Institute for High-Performance Computing and Networking (ICARP)", *) CED-CNR (RM), Second University of Naples, University of Calabria (CS), University of Sannio, University of L’Aquila, University of Florence, University of Genoa, University of Naples “Federico II”, University of Naples “Partenope”, University of Rome "Tor Vergata".These researchers already cooperated in many projects; among them we remeber "PQE2000", various projects in "CNR Agenzia 2000", MIUR 1999 and 2000 special projects. . This RU works on Grid-enabled Scientific Libraries (responsible) and on Programming Tools and Environment, with the goal of making it easy and portable the development of high-performance scientific applications on Grid. This RU coordinates the WP on Security e participates to the WPs on Knowledge Services and EOS.

RESEARCH UNIT INFN (PROF. MIRCO MAZZUCATO)The Italian National Institute for Nuclear Research, INFN, is a governmental research organization, which promotes, coordinates and funds nuclear and high-energy physics research. From October 1999 INFN started a pilot project in collaboration with the Globus team, to investigate a possible utilization of this software tool for the High Energy Physics applications. INFN is one of the main partners who have initiated the international EU funded DataGRID and DataTAG projects and the Intergrid EU-US and ASIA Coordination Board.The activity of the INFN RU is organized in five workpackages: GRID deployment, Data Intensive Core Services, GRID Applications for Astrophysics, for Biology, and for Geophysics.The main RU goal is to specify, develop, integrate and test new tools and middleware services to manage large amount of data in a highly heterogeneous, high performance and high-throughput production quality grid environment. The data intensive core services will be mainly developed for Astrophysics, Geophysics, Earth Observation and Biology application sector.

RESEARCH UNIT CNIT (PROF. GIANCARLO PRATI)CNIT Research Unit (RU) will mainly develop its activity within the National Photonic Networks Laboratory located in Pisa..The research work of the RU covers both themes of photonic networks and photonic technologies to support grid computing. As regards photonic networks the main activity is focused on efficient mapping of the IP protocol on a DWDM-based transport network, by simplification of the protocol stack IP/ATM/SDH/DWDM. Efficient implementations of traffic grooming and traffic engineering based on IP/MPlS combination are object of intense investigation. Specific, bandwidth hungry applications are under test within the experimental test-bed denominated VESPER (Very High Speed Experimental Ring). As regards photonic technologies, we have envisioned a specific activity with links to other activities dedicated to investigations on novel devices for all-optical networks to support grid computing. The organization of the research work is structured in 2 workpackages: Grid Oriented Optical Switching Paradigms, and High performance Photonic Test bed.

RESEARCH UNIT ASI (DR. GIOVANNI MILILLO)This research unit, managed by the Italian Space Agency, is mainly constituted by an Institute of the Italian National Research Council (the Institute for Signal and Image Processing, CNR of Bari), the Department of Electric and Electronic Engineering of the Politecnico of Bari, the Dipartimento Interateneo of Physics of University of Bari, the ISUFI (Istituto Superiore Universitario per la Formazione Interdisciplinare) of University of Lecce, the ESRIN centre of the European Space Agency (ESA) and the e-GEOS company.This RU coordinates the WPs on Grdi Applications for Earth Observation Systems, and on Grid Portals.The aim the WP on EOS is to realize an applicative test-bed in the Earth Observation field. This test-bed will be based on the GRID technology and will finalize the previous experiences in the High Performance Computing (ASI-PQE2000). The scope is to allow the final users access to the wide asset of EO data, products and services acquired during the space and air missions that ASI financed, obtained by ASI thanks to international agreements, acquired during validation campaigns. The project includes the development of a middleware devoted to manage EO data, finalized to interconnect the various Center of Excellence, geographically distributed, to be used as a test-bed to integrate the Earth Observation applications and to interface the user by a specialised portal.

1.12 Descrizione delle infrastrutture da realizzare

1.12.1 Collegamento funzionale con la Proposta Progettuale

17

1.12.2 Descrizione delle infrastrutture nº Descrizione Ubicazione Costo A

(MLit)Costo B(MLit)

Costo C(MLit)

Costo D(MLit)

Tempo direalizz.(anni)

Resp. Scientifici delle UR partecipanti

Legenda:

Costo A: Costo della progettazione (MLit)

Costo B: Costo delle aree (MLit)

Costo C: Costo delle opere civili (MLit)

Costo D: Costo dell'allestimento (MLit)

1.12.3 Rapporto con iniziative locali/regionali/nazionali/comunitarie/internazionali

1.12.4 Rapporto con Istituzioni pubbliche e private, Centri di ricerca, Parchi scientifici e tecnologici, Poli industriali, etc.

1.12.5 Costi e tempi di realizzazione nº Descrizione Costo Totale (MLit) Tempo di Realizzazione (anni)     0 

(0.00 KEuro) 0 

18

Parte II "Le Unità di Ricerca" Unità di Ricerca n. 1

1.1 Descrizione della struttura e dei compiti dell'Unità di Ricerca

L’Istituto di Scienza e Tecnologie dell’Informazione (ISTI-CNR) è stato costituito con decreto del settembre 2000, nel quadro del generale riordinamento degli Istituti di Ricerca del CNR. L’ISTI-CNR nasce dalla fusione dell’Istituto di Elaborazione dell’Informazione (IEI-CNR) e l’Istituto CNUCE (CNUCE-CNR). Entrambi questi istituti, che hanno sede nell’Area della Ricerca CMR di Pisa, hanno notorietà internazionale e hanno contribuito in maniera determinante alla nascita e allo sviluppo dell’informatica in Italia e a livello internazionale.L’unione delle attività di ricerca dei due istituti, già largamente correlate, rendono l’ISTI un istituto multidisciplinare con un ampio spettro di interesse, che spaziano sui seguenti settori:

Scienza e tecnologia del software, Reti di calcolatori, Calcolo avanzato e parallelo, Sistemi affidabili e metodi di test, Sistemi multimediali in rete, Sistemi informativi, Informatica grafica e visualizzazione scientifica, Elaborazione di immagini e visione artificiale, Meccanica strutturale e computazionale, Dinamica del volo spaziale, Tecnologie e applicazioni informatiche.

Le risorse umane dell’ISTI comprendono circa 90 ricercatori, di cui 18 a contratto, e circa 75 tra tecnici di laboratorio e amministrativi. Nel 2001 la dotazione ordinaria di fondi per la ricerca è stata di circa 1500 milioni. La fonte preponderante di finanziamento della ricerca sono i contratti stipulati con agenzie di ricerca (sopratttutto con la Comunità Europea) e con industrie, per un totale di circa 5300 milioni. In particolare, con la Comunità Europea sono attivi 11 contratti per un totale di circa 4800 milioni. In molti di questi progetti l’ISTI e’ il “Prime Contractor”, con compiti di coordinamento delle attivita’ di ricerca del progetto. Fra le collaborazioni industriali si cita in particolare quella con la Società Ericsson Lab Italy, nel cui ambito è stato costituito a Pisa presso l’ISTI-CNR il laboratorio congiunto Pisatel, dedicato a ricerche e sviluppo nel campo del software per le telecomunicazioni.Oltre che nei progetti comunitari di ricerca, l’ISTI è attivo anche in altre collaborazioni internazionali. In particolare, rappresenta il CNR presso lo ERCIM (European Consortium for Informatics and Mathematics), partecipando attivamente a vari gruppi di lavoro. Questo consorzio, cui partecipano di organizzazioni di ricerca di 14 nazioni europee, ha lo scopo di promuovere progetti collaborativi di ricerca e la collaborazione con l’industria europea. L’ISTI e’ inoltre impegnato in un programma di collaborazione con il GMD (Forschungszentrum Informationstechnik GmbH), nel cui ambito sono in corso 6 progetti comuni che interessano le tecnologie e le applicazioni dell’informatica. Infine, è attivo con la NASA un contratto per il controllo di missioni satellitari, nell’ambito di una collaborazione ormai in corso da vari anni.L’ISTI è fortemente impegnato in attività di alta formazione, anche con l’attivo coinvolgimento nelle attività di dottorato. Allo stato attuale operano nell’Istituto una ventina di dottorandi e altrettanti titolari di assegni di ricerca.

In questo progetto, l’Unità di Ricerca ISTI, che comprende professori, ricercatori, tecnologi, dottorandi e assegnisti, associa diversi gruppi afferenti al CNR e ad Università italiane e straniere. Il personale del CNR afferisce ai seguenti Istituti: ISTI, Istituto per la Matematica Applicata (IMA) di Genova, Istituto di Ricerca sull'Ingegneria delle Telecomunicazioni e dell'Informazione (IRITI) di Torino e Istituto di Tecnologie Biomediche Avanzate (ITBA) di Milano.Il personale universitario afferisce a: Dipartimento di Automatica e Informatica del Politecnico di Torino, Dipartimento di Informatica dell’Università di Milano Bicocca, Dipartimento di Informatica dell’Università di

19

Pisa, Dipartimento di Informatica dell’Università di Venezia, Dipartimento di Ingegneria dell’Informazione dell’Università di Siena e al Dipartimento di Sistemi ed Informatica dell’Università di Firenze:

L’Unità di Ricerca ISTI partecipa alle attività dei seguenti sei workpackage (WP) dei quali segue una breve presentazione: WP3 (GRID Deployment), WP4 (Security), WP6 (Knowledge Services for Intensive Data Analysis, Intelligent Searching, and Intelligent Query Answering), WP8 (High-performance Component-based Programming Environment), WP11 (Grid Applications for Earth Observation Systems Application), WP12 (Grid Applications for Biology) e WP15 (Project Management).

Uno dei primi obiettivi del presente è lo sviluppo di una infrastruttura hardware e software che consenta l'accesso agevole, affidabile e trasparente alle risorse della griglia. A tal fine, il WP3 si propone di implementare i principali servizi di GRID, al fine di offrire, non solo un ambiente dimostrativo, ma anche uno strumento di produzione per applicazioni reali selezionate dei settori della Biologia, Astrofisica, Osservazione della Terra, Geofisica e Vulcanologia.

Il problema della sicurezza informatica è oggi estremamente sentito e risulta particolarmente importante negli ambienti GRID. Il WP4 è dedicato allo studio delle problematiche connesse alla creazione di ambienti di GRID sicuri e alla cooperazione tra ambienti grid appartenenti a differenti organizzazioni.

Il WP6 è orientato allo sfruttamento di una griglia computazionale come sofisticato strumento di “web computing” ad elevate prestazioni. In particolare, si prefigge di sviluppare una architettura software per knowledge discovery basata su una serie di servizi grid che forniscono un accesso consistente, pervasivo e efficace a risorse computazionali high-end. Inoltre, verranno studiate le tecniche da adottare in una infrastruttura grid per permettere ai server Web di soddisfare una richiesta di servizi in fortissima crescita.

Il WP8 si prefigge l’obiettivo di studiare e sfruttare in ambiente GRID sia la programmazione parallela strutturata che la tecnologia a componenti, al fine di sfruttare le potenzialità di questo nuovo approccio computazionale per la realizzazione di una nuova generazione di applicazioni (applicazioni multidisciplinari) in grado, di aumentare capacità e competitività degli operatori del settore siano essi organizzazioni scientifiche, utenti finali o fornitori di servizi ad alto valore aggiunto.

Il WP11 agglomera gruppi di ricerca impegnati nel settore dell’Osservazione della Terra. Questo workpackage prevede la progettazione e l’implementazione di un sistema Grid-based per l’acquisizione, l’analisi ed il delivering di immagini telerilevate per vari scopi quali, ad esempio, pianificazione del territorio, protezione civile, ecc..

Il WP12 ha come obiettivo principale lo sfruttamento di griglie computazionali nei settori della biologia, bioinformatica, neuroinformatica e della genetica di popolazioni. In questi ambiti, esistono molte applicazioni “compute/data intensive” (ad esempio: analisi di sequenze genetiche, accesso a banche dati distribuite di immagini tomografiche, proteomiche, ecc.) per le quali la disponibilità di una griglia computazionale rappresenta l’unico concreto approccio per effettuare analisi caratterizzate da sufficienti gradi di realismo.

Infine, il WP15 è dedicato al management delle attività dell’intero progetto. Questo compito viene affidato a due strutture di coordinamento: Comitato Guida e Comitato Esecutivo. Il Comitato Guida ha compiti di supervisione strategica ed è composto dal responsabile del progetto, dai responsabili delle unità di ricerca e tre esperti internazionali. Il Comitato Esecutivo, al quale è assegnata la responsabilità della conduzione tecnica del progetto, è composto da responsabile del progetto e dai responsabili dei singoli workpackage.

In the frame of the global reorganization of the research institutes of CNR, the Institute for Information Science and Technology (ISTI-CNR) was established in September 2000, by merging the Institute for Information Processing (IEI-CNR) with CNUCE (CNUCE-CNR). Both institutes, located in the research Campus in Pisa, are internationally known and have decidedly contributed to the establishment and the development of Information Technology activities in Italy and at an international level. The merging of the research activities of IEI and CNUCE, strongly related and to a large extent already conducted in collaboration, makes ISTI a truly interdisciplinary institute with a broad range of interests, which span the following sectors: - Software science and technology- Computer networks- Parallel and advanced computing

20

- Reliable systems and testing methodologies- Networked multimedia systems- Information systems- Graphics and scientific visualization- Image processing and artificial vision- Structural and computational mechanics- Dynamic of space flights- Informatics applications and technologies.

The global human resources of ISTI are about 90 researchers (18 of which are visiting professors or with temporary contracts) and about 75 people of technicians and administrative staff. In 2001 the funding from CNR for research activities was about 750 Keuro. However, the major portion of the research activities is funded through contracts with research agencies (notably the European Commission) and with the industry, for about 2700 Keuro additional funds. In particular, there are 11 contracts on going with the European Commission (for a total of about 2400 Keuro), and in many of them ISTI is the Prime Contractor, with a leading role in the coordination of the research activities. The most relevant industrial cooperation is with Ericsson, in the frame of which a joint laboratory for the study and development of software for wireless and mobile systems has been established on the premises of ISTI.

As far as international cooperations and links are concerned, in addition to the cooperations established in the frame of projects funded by the European Commission, ISTI represents CNR in ERCIM, the European Consortium for Informatics and Mathematics, with an active role in several working groups. Through the definition of common scientific goals and strategies, the fourteen national members institutions of ERCIM aim to foster collaborative work within the European research community and to increase cooperation with European industry. ISTI has also established an agreement for scientific cooperation with the German National Research Center for Information Technology (GMD–Forschungzentrum Informationstechnick), and six projects are currently on going in the frame of this cooperation. Finally, in the frame of a cooperation with NASA, dating back to 1975, there is on going a contract for the control of space missions. ISTI is very active also in the field of higher education, and cooperates closely with Italian Universities in teaching and training at the undergraduate and graduate levels, with a number of ISTI researchers teaching University courses and supervising First Degree and Doctoral theses. Presently there are about 20 graduate students and 20 post-docs carrying on their researches at ISTI.

The ISTI’s Research Unit involves professors, researchers, technologists, PhD students, technicians and temporary position researchers, belonging to different CNR and academic research groups from Italian and foreign universities. CNR belongs to the following CNR’s Institutes: ISTI, Institute for Applied Mathematics (IMA, Genoa), the Research Institute on Computer and Telecommunication Engineering (IRITI, Turin) and, the Institute of Advanced Biomedical Technologies (ITBA, Milan).The academic people belongs to: Department of Automation and Informatics-Polytechnic of Turin, Department of Computer Science-University of Milan “Bicocca”, Department of Computer Science-University of Pisa, Department of Computer Science-University of Venice, Information Engineering Department-University of Siena and, Department of Systems and Computer Science-University of Florence.

The ISTI’s Research Unit participates to the activities of following six work packages (WP) shortly described in the bottom: WP3 (GRID Deployment), WP4 (Security), WP6 (Knowledge Services for Intensive Data Analysis, Intelligent Searching, and Intelligent Query Answering), WP8 (High-performance Component-based Programming Environment), WP11 (Grid Applications for Earth Observation Systems Application), WP12 (Grid Applications for Biology) and, WP15 (Project Management).

One of the first goal of this project is the development and deployment of a National hardware and software infrastructure enabling an easy and reliable access to the GRID resources. According to this goal, WP3 is focused on the implementation of some “core” services in order to build not only a “demo” testbed but a “production” one for real application belonging to Biology, Astrophysics, Earth Observation Systems and Volcanology. Security is a huge concern today and this is particularly true for the GRID environments. WP4 is dedicated to study of the main issues related to the creation of “secure” GRID environments and, to the cooperation among GRID infrastructures belonging to different organizations. WP6 is related to the exploitation of a computational GRID intended as a very sophisticate high-performance “web computing” tool. In order to permit a consistent, easy, effective and pervasive access to high-end data and computational resources, WP6 focus on the development of a Knowledge Discovery software architecture based on GRID services. Moreover, considering the continuous growing of high-performance web services, studies on the adoption of a GRID infrastructure as a “high-performance engine” will

21

addressed. In order to exploit the potentialities of the GRID, intended as a new computational approach, making easier the programming of grid-aware applications,WP8 is dedicated to the study and the adoption of structured parallel programming and components technology. The goal is the definition of methodologies to create a new generation of application (multidisciplinary applications) able to raise capacity and competitiveness of the operators (scientific organizations, end users, add-value application providers) exploiting the GRID. WP11 includes research groups involved in the Earth Observation System field. This work package focus on the design and implementation of a GRID-based system dedicated to the acquisition, analysis and delivering of remote sensing data used for several purposes like, land planning, risk and civil protection, etc.. WP12 has the main goal to exploit GRIDs in fields like, biology, bioinformatics, neuroinformatics and population genetics. There are several applications in these fields having huge compute and data intensive requirements (e.g., genomis sequences analysis, proteomics, access to very large tomographic images databases, etc.). In those the availability of a GRID constitutes the only concrete approach permitting to perform analysis characterized by adequate degrees of realism. Finally, WP15 is dedicated to the project management. This task is assigned to the Advisory (AC) and Executive (EC) Committees. AC, composed by the responsible of the project, the responsible of each Research Units and three international experts, carries out the strategic decisions. EC, composed by the responsible of the project and the responsible of each WP, supervises to the technical activities of the project.

1.2 Responsabile Scientifico dell'Unità di Ricerca LAFORENZA  DOMENICO  LFRDNC52P26A048X 

(cognome)   (nome)   (CF)  

Ricercatore    26/09/1952 

(qualifica)   (settore)   (data di nascita)  

Consiglio nazionale delle ricerche (CNR) 

CNUCE   

(Istituzione di appartenenza)(art.5, c.1, DM citato)  

(Dipartimento/Istituto/Divisione/Settore) (posizione)  

0503152992  0503138091  [email protected] 

(prefisso e telefono)   (numero fax)   (indirizzo posta elettronica)  

Referenza Cognome REINEFELD Nome ALEXANDER Email [email protected] Istituzione Department of Computer Science, Konrad-Zuse-Zentrum für Informationstechnik Berlin, Germany 

1.3 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca

Domenico Laforenza è attualmente ricercatore presso il CNUCE di Pisa, Istituto del Consiglio Nazionale delle Ricerche (CNR), dove è responsabile del Reparto di Calcolo Scientifico Avanzato. È stato assunto al CNUCE nel 1972, dove si è occupato di Performance Evaluation e Capacity Management sino al 1981. Dal 1981 svolge attività di ricerca. I suoi principali campi di interesse scientifico sono i sistemi di elaborazione ad elevate prestazioni, gli strumenti software per il progetto e lo sviluppo di applicazioni parallele. Si è laureato in Scienze dell'Informazione, nel 1977, presso l'Università di Pisa (Dipartimento di Scienze dell'Informazione), dove è docente al corso di Sistemi di elaborazione dell'Informazione: Applicazioni Parallele. Dal 1997 si occupa di metacomputing e grid computing, cioè della possibilità di creare ambienti computazionali integrati e collaborativi mediante i quali gli scienziati possono accedere a risorse, di calcolo e dati, virtualmente illimitate.

22

Dr Domenico Laforenza is currently researcher at CNUCE, Institute of the Italian National Research Council (CNR) in Pisa where he is responsible for the Advanced Computing Department. He joined CNUCE in 1972 where he was computer operator (until 1975) and performance evaluator (until 1981). Since 1981 his main fields of research interest are high performance computing and the programming of massively parallel systems. He received the doctoral degree in Computer Science from the Department of Computer Science of University of Pisa in 1977, where he has a joint appointment at the Department of Computer Science of University of Pisa as professor of Parallel Applications. Since 1997 he is interested to metacomputing and grid computing. A grid is inteded as a seamless, integrated computational and collaborative environment through which computational grid the scientists will be able to access virtually unlimited computing and distributed data resources.

1.4 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca nº Pubblicazione1. BAKER M.; BUYYA R.; LAFORENZA D. (2000). The Grid: International Efforts in Global

Computing SSGRR 2000 Computer & eBusiness Conference, Scuola Superiore G. Reiss Romoli. July 31 – August 6, 2000. ISBN 88-85280-52-8.  

2. BARAGLIA R.; KELLER A.; LAFORENZA D.; REINEFELD A. (2000). RsdEditor: A Graphical User Interface for Specifying Metacomputer Components IEEE 9th Heterogeneous Computing Workshop (HCW2000), Cancun, Mexico. May 1, 2000. pp. 336-345 Edited by C. Raghavendra, The Aerospace Corporation, ISBN 0-7695-0556-2.  

3. BARAGLIA R.; FERRINI R.; LAFORENZA D. (1999). WAMM in the framework of graphical user interfaces for metacomputing managemen FUTURE GENERATION COMPUTER SYSTEMS. (vol. 15 pp. 687-698) Special Issue on Metacomputing, Elsevier Science.  

4. BARAGLIA R.; FAIETA G.; FORMICA M.; LAFORENZA D. (1997). Experiences with a Wide Area Network Metacomputing Management Tool using IBM SP-2 Parallel System CONCURRENCY: PRACTICE AND EXPERIENCE. (vol. 9(3) pp. 223-239) ISSN: 1040-3108 Wiley & Sons, Inc..  

5. REINEFELD A.; BARAGLIA R.; DECKER T.; GEHRING J.; LAFORENZA D.; RAMME F.; ROMKE T.; SIMON J. (1997). The MOL Project: An Open , Extensible Metacomputer “Heterogeneous Computing” Workshop (HCW), University of Geneva (CH). April 1, 1997. pp. 17-31 IEEE Computer Society Press.  

1.4.a Titoli scientifici più significativi del Responsabile Scientifico dell'Unità di Ricerca

Responsabile di Progetto Bilaterale CNR“Tecniche di resource management per metacomputer eterogenei su rete WAN”CNUCE-Paderborn Parallel Computing Center, University of Paderborn, Germany

Responsabile di Unità Operativa CNUCETema Unità Operativa: Aprocci Grid: Web Computing Progetto“Griglie computazionali e applicazioni”- CNR AGENZIA2000 (codice: CNRC000E3F_004 - Coordinatore: Prof. Almerico Murli)

Responsabile di sottoprogettoSottoprogetto 3: “Grid Computing: tecnologie abilitanti e applicazioni per eScience”Progetto CNR “Strumenti, Ambienti e Applicazioni Innovative per la Società dell'Informazione” (Coordinatore: Prof. Domenico Saccà). Fondo speciale per lo sviluppo della ricerca di interesse strategico. Approvata a fine settembre 2001)

Responsabile Scientifico del Contratto ESPRIT 6942 (REP 649)Anni: 1993 -1994

23

Responsabile Scientifico parte CNUCE Progetto Esprit “EuroTools” - Working Group (WG 27141) (Working Group for European HPCN Tools Promotion) – http://www.eurotools.org, Anni: 1998 –2000

Responsabile di Unità Operativa CNUCE e del Work Package n.5Contratto CNUCE-Agenzia Spaziale Italiana “Sviluppo di applicazioni di osservazione della terra mediante sistemi e strumenti di calcolo ad elevate prestazioni” - AREA 1: AMBIENTE DI PROGRAMMAZIONE, WP5: PAR-GRID: PPE integrato in contesto parallelo +Grid, Anno: 2001

Invited ExpertWorkshop on Grid TechnologiesDirectorate-General Information Technology, Research NetworkingEuropean Commission, Brussels, 22-23 June 2000

Rappresentante italiano nel Management Committee dell’Azione COST D23METACHEM: Metalaboratoires for Complex Computational Application in ChemistryLettera del Ministero dell’Università e della Ricerca Scientifica e Tecnologica, 18dicembre 2000, Prot. 1881/00

Professore a contratto Dipartimento di Informatica dell'Università di Pisa.Corso: Sistemi di elaborazione dell’Informazione: Applicazioni paralleleAnni Accademici: 1997/1998, 1998/1999, 1999/2000, 2000/2001

Reviewer: Task Contract No 121699 - 14 June 1999 - 805166Annaual Review of EP 29909 METODIS (Metacomputing Tools for Distributed S ystems) per conto della Comunità Europea, Surennes (Paris), Aerospatiale, 29 June 1999

Reviewer: Task Contract No 125851, 12 January 2000 – 935014per conto della Comunità Europea al Progetto No 29909 METODIS (Metacomputing Tools for Distributed S ystems), Ottobrunn (Munchen), DASA, 25th January 2000-04-06

Evaluation of proposal for the Information Society Technology Programme – Research Networking (IST-RN), Contract No 126790 del 10 February 2000-935053 Brussels, European Commission , 14-18 February 2000

Reviewer: Task Contract No 128979,Annual Review of EP 29909 METODIS (Metacomputing Tools for Distributed S ystems), Rouen (France), 4 July 2000

Reviewer: Task Contract No 132438,Final Review of EP 29909 METODIS (Metacomputing Tools for Distributed Systems), Stuttgart (Germany), 30 Juanary 2001

Reviewer: Task Contract No 132349,European Commision – Directorate General Information SocietyEvaluation of new COST proposal (Computational and Information Infrastructure in Astronomy: Toward Virtual Astronomy), Pisa, January 2001

Evaluation of proposal for the Information Society Technology Programme – 6th Call for Proposal: Evaluation of proposals addressing key action CPA9: Grids in IST programme, Brussels, European Commission, 28 May – 1 June 2001, Contract No 135688

Programme Committee Member and OrganizerAdvanced Workshop on Programming Tools for Parallel Machines, Alimini, Otranto, 21-25 Giugno 1993

Programme Committee Member and Session ChairmanERCIM Symposioum on Affordable Parallel Processing for Industry and CommerceRutherford Appleton Laboratory (UK), 10-12 Novembre 1993

Steering Committee Member

24

ERCIM Parallel Processing Network WorkshopHotel Creta Sun, Gouves, Crete, Greece, June 8-10, 1994

IEEE Second International Conference on Massively Parallel Computing SystemsIschia, Italy, May 6-9, 1996

Program Committee Member / Reviewer Heterogeneous Computing Workshop (HC’97) In conjunction with IEEE International Parallel Processing Symposium 1997 (April 1-5,1997), Geneva, Switzerland

Membro del Comitato OrganizzatoreEuropean WS on High-Performance Computing and Networking for European and ChineseIndustry, ERCIM/GMD/CNUCE, CNUCE, Pisa, 16 Giugno 1997

Programme Committee MemberIEEE Heterogeneous Computing Workshop (HCW’98), March 30 - April 3, 1998 - Orlando, Florida, USA

Advisory Committee Member 1999 IEEE CS Task Force on Cluster Computing (TFCC)

Programme Committee Member Heterogeneous Computing Workshop (HC’98) In conjunction with the First Merged Symposium of the 12th International Parallel Processing Symposium and the 9th Symposium on Parallel and Distributed Processing (IEEE IPPS/SPDP 1998) (March 30 - April 3, 1998), Orlando, Florida, USA

Reviewer per il JournalDistributed Systems Engineeringpublished jointly with The British Computer Society and The Institution of ElectricalEngineers. Honorary Editors: D Hutchison and M Sloman, Anno 1999

Reviewer per il JournalTransactions on Software EngineeringIEEE Computer Society, 10662 Los Vaqueros CircleLos Alamitos, CA 90720-1314 , Anno 1999

Reviewer6th European PVM/MPI Users’ Group MeetingLecture Notes in Computer Science Vol. 1697Springer, Anno 1999

Program Committee Member / Reviewer / Invited speakerDAPSYS'2000 (AUSTRIAN-HUNGARIAN WORKSHOP ON DISTRIBUTED AND PARALLEL SYSTEMS)Balatonfured, Lake Balaton, Hungary, September 10th-13th, 2000http://www.lpds.sztaki.hu/DAPSYS2000/program.html

Program Committee Member / Reviewer EuroPVM/MPI 2000Balatonfured, Lake Balaton, Hungary, September 10th-13th, 2000

Program Committee Member / Reviewer / Session ChaimanEuro-Par 2000Technische Universitat Munchen, Munich, Germany, 29.8 – 1.9.2000

Program Committee Member / Reviewer / Session ChairmanGRID'2000: International Workshop on Grid ComputingIn Conjunction with: 7th International Conference on High Performance Computing(HiPC'2000), December 17-20, 2000, Bangalore, IndiaCo-sponsored by the IEEE Computer Society and ACM SIGARCHhttp://www.csse.monash.edu.au/~rajkumar/Grid2000/

25

Program Committee Member / Reviewer IEEE Computer Society Task Force On Cluster Computing (TFCC) HPCN 2000, Cluster Computing Workshop atThe University of Amsterdam, The Netherlands, May 8-10, 2000http://www.wins.uva.nl/events/HPCN2000/

Program Committee Member / Reviewer ICA3PP 2000 – The 4th International Conference on Algorithms & Architectures for Parallel Processing Hong Kong, 11 – 13 December 2000 http://www.cs.cityu.edu.hk/~ica3pp2k

Reviewer9th Euromicro Workshop on Parallel and Distributed Processing (PDP 2001) Mantova, Italy, February 7-9, 2001http://pdp2001.gmd.deProgram Committee Member / Reviewer / Invited speaker / PanelistIEEE International Symposium on Cluster Computing and the Grid (CCGrid'2001)May 16 - 18, 2001, Brisbane, Australia http://www.ccgrid.org | http://www.ccgrid2001.qut.edu.au/

Local Organizer & Program Committee Member1st EuroGlobus WorkshopLecce, Robinson Club Apulia Village - ITALY16-23 June 2001http://www.informatica.unile.it/laboratori/lab-hpc/euroglobus/home.htm

Program Committee Member / ReviewerIEEE 10th International Symposium on High Performance Distributed Computing Hotel Nikko San Francisco, San Francisco, California, August 7-10, 2001 http://grid.lbl.gov/HPDC-10

Vice Chair / ReviewerEuroPar 2001 - Problem Solving EnvironmentsUniversity of Manchester and UMIST, Manchester (UK), 29-31 August 2001http://europar.man.ac.uk/topics/19.html

Steering Committee MemberGlobal Grid Forum Steering Group (GFSG)http://www.gridforum.org

Reviewer per il JournalSoftware: Practice & ExperienceJohn Wiley & SonsAnno 2001

Responsible for the CNR Bilateral Project “Resource Management techniques for WAN metacomputers”CNUCE-Paderborn Parallel Computing Center, University of Paderborn, Germany

Responsible for the CNUCE's Research Group"Grid Appraoches: Web Computing" in the CNR's AGENZIA 2000 Project “Computational Grids and applications”- (code: CNRC000E3F_004 - Coordinator: Prof. Almerico Murli)

Responsible for the Project N.3“Grid Computing: enabling technologies and applications for eScience”CNR Project “Tools, Environments and Innovative Applications for the Information Society” (Coordinator: Prof. Domenico Saccà). MURST "Fondo speciale per lo sviluppo della ricerca di interesse strategico". September 2001

CNUCE's Scientific Responsible for the ESPRIT Contract no. 6942 (REP 649), 1993 -1994

26

CNUCE's Scientific Responsible for the ESPRIT Project “EuroTools” - Working Group (WG 27141) (Working Group for European HPCN Tools Promotion) – http://www.eurotools.org, 1998 –2000

Responsible for the CNUCE's Research Group and for Work Package n.5 - "CNUCE-Italian Space Agency" Contract “Development of Earth Observation Systems Applications using High Performance Computing Systems” - AREA 1: Programming Environments, WP5: PAR-GRID: PPE Integration with Grids, 2001

Invited ExpertWorkshop on Grid TechnologiesDirectorate-General Information Technology, Research Networking, European Commission, Brussels, 22-23 June 2000

Italian Representative in the COST 23 Management Committee,METACHEM: Metalaboratoires for Complex Computational Application in Chemistry, Italian Ministry of Research, December 2000

Contract Professor of "Paralle Applications" at the Department of Computer Science, University of Pisa, 1997-2001

Reviewer: Task Contract No 121699 - 14 June 1999 - 805166Annaual Review of EP 29909 METODIS (Metacomputing Tools for Distributed S ystems) per conto della Comunità Europea, Surennes (Paris), Aerospatiale, 29 June 1999

Reviewer: Task Contract No 125851, 12 January 2000 – 935014Review of EP 29909 METODIS (Metacomputing Tools for Distributed S ystems), Ottobrunn (Munchen), DASA, 25th January 2000-04-06

Evaluation of proposal for the Information Society Technology Programme – Research Networking (IST-RN), Contract No 126790 del 10 February 2000-935053, Brussels, European Commission , 14-18 February 2000

Reviewer: Task Contract No 128979,Annual Review of EP 29909 METODIS (Metacomputing Tools for Distributed S ystems), Rouen (France), 4 July 2000

Reviewer: Task Contract No 132438, Final Review of EP 29909 METODIS (Metacomputing Tools for Distributed Systems), Stuttgart (Germany), 30 Juanary 2001

Reviewer: Task Contract No 132349, European Commision – Directorate General Information Society, Evaluation of new COST proposal (Computational and Information Infrastructure in Astronomy: Toward Virtual Astronomy), Pisa, January 2001

Evaluation of proposal for the Information Society Technology Programme – 6th Call for Proposal: Evaluation of proposals addressing key action CPA9: Grids in IST programme, Brussels, European Commission, 28 May – 1 June 2001, Contract No 135688

Programme Committee Member and OrganizerAdvanced Workshop on Programming Tools for Parallel Machines, Alimini, Otranto, 21-25 Giugno 1993

Programme Committee Member and Session ChairmanERCIM Symposioum on Affordable Parallel Processing for Industry and Commerce, Rutherford Appleton Laboratory (UK), 10-12 Novembre 1993

Steering Committee MemberERCIM Parallel Processing Network WorkshopHotel Creta Sun, Gouves, Crete, Greece, June 8-10, 1994

Reviewer for IEEE Second International Conference on Massively Parallel Computing Systems, Ischia, Italy, May 6-9, 1996

Program Committee Member / Reviewer, Heterogeneous Computing Workshop (HC’97) , In conjunction with IEEE International Parallel Processing Symposium 1997 (April 1-5,1997), Geneva, Switzerland

27

Organization Committee Member, European WS on High-Performance Computing and Networking for European and Chinese Industry, ERCIM/GMD/CNUCE, CNUCE, Pisa, 16 Giugno 1997

Programme Committee MemberIEEE Heterogeneous Computing Workshop (HCW’98), March 30 - April 3, 1998 - Orlando, Florida, USA

Advisory Committee Member, 1999 IEEE CS Task Force on Cluster Computing (TFCC)

Programme Committee Member, Heterogeneous Computing Workshop (HC’98), In conjunction with the First Merged Symposium of the 12th International Parallel Processing Symposium and the 9th Symposium on Parallel and Distributed Processing (IEEE IPPS/SPDP 1998) (March 30 - April 3, 1998), Orlando, Florida, USA

Reviewer, "Distributed Systems Engineering", published jointly with The British Computer Society and The Institution of Electrical Engineers. Honorary Editors: D Hutchison and M Sloman, 1999Reviewer, "Transactions on Software Engineering", IEEE Computer Society, 10662 Los Vaqueros Circle, Los Alamitos, CA 90720-1314 , Anno 1999

Reviewer, 6th European PVM/MPI Users’ Group MeetingLecture Notes in Computer Science Vol. 1697, Springer, 1999

Program Committee Member / Reviewer / Invited speakerDAPSYS'2000 (AUSTRIAN-HUNGARIAN WORKSHOP ON DISTRIBUTED AND PARALLEL SYSTEMS), Balatonfured, Lake Balaton, Hungary, September 10th-13th, 2000http://www.lpds.sztaki.hu/DAPSYS2000/program.html

Program Committee Member / Reviewer EuroPVM/MPI 2000, Balatonfured, Lake Balaton, Hungary, September 10th-13th, 2000

Program Committee Member / Reviewer / Session ChaimanEuro-Par 2000, Technische Universitat Munchen, Munich, Germany, 29.8 – 1.9.2000

Program Committee Member / Reviewer / Session ChairmanGRID'2000: International Workshop on Grid ComputingIn Conjunction with: 7th International Conference on High Performance Computing (HiPC'2000), December 17-20, 2000, Bangalore, India Co-sponsored by the IEEE Computer Society and ACM SIGARCHhttp://www.csse.monash.edu.au/~rajkumar/Grid2000/

Program Committee Member / Reviewer IEEE Computer Society Task Force On Cluster Computing (TFCC) HPCN 2000, Cluster Computing Workshop atThe University of Amsterdam, The Netherlands, May 8-10, 2000http://www.wins.uva.nl/events/HPCN2000/

Program Committee Member / Reviewer ICA3PP 2000 – The 4th International Conference on Algorithms & Architectures for Parallel Processing, Hong Kong, 11 – 13 December 2000, http://www.cs.cityu.edu.hk/~ica3pp2k

Reviewer, 9th Euromicro Workshop on Parallel and Distributed Processing (PDP 2001), Mantova, Italy, February 7-9, 2001http://pdp2001.gmd.de

Program Committee Member / Reviewer / Invited speaker / Panelist, IEEE International Symposium on Cluster Computing and the Grid (CCGrid'2001), May 16 - 18, 2001, Brisbane, Australia http://www.ccgrid.org

http://www.ccgrid2001.qut.edu.au/

Local Organizer & Program Committee Member1st EuroGlobus Workshop, Lecce, Robinson Club Apulia Village - ITALY, 16-23 June 2001http://www.informatica.unile.it/laboratori/lab-hpc/euroglobus/home.htm

28

Program Committee Member / ReviewerIEEE 10th International Symposium on High Performance Distributed Computing, Hotel Nikko San Francisco, San Francisco, California, August 7-10, 2001 http://grid.lbl.gov/HPDC-10

Vice Chair / ReviewerEuroPar 2001 - Problem Solving EnvironmentsUniversity of Manchester and UMIST, Manchester (UK), 29-31 August 2001, http://europar.man.ac.uk/topics/19.html

Steering Committee MemberGlobal Grid Forum Steering Group (GFSG)http://www.gridforum.org

Reviewer for the JournalSoftware: Practice & ExperienceJohn Wiley & Sons, 2001

1.5 Risorse umane da impegnare nelle attività dell'Unità di Ricerca

1.5.1 Personale dipendente dell'Istituzione, sede dell'Unità di ricerca nº Cognome Nome Dipartimento/Istituto/

Divisione/SettoreQualifica Settore sc.

disc. di riferimento

Mesi/uomo Costo (ML)

1. Aiolli  Fabio  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

2. Albano  Antonio  Dipartimento di Informatica, Uni.Pisa 

Prof. Ordinario 

INF/01  3  50 (25.82 KEuro) 

3. Aldinucci  Marco  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

4. Angius  Andrea  IGM-CNR, Milano  Ricercatore (R0) I 

INF/01  3  19 (9.81 KEuro) 

5. Attardi  Giuseppe  Dipartimento di Informatica, Uni.Pisa 

Professore Ordinario 

INF/01  6  60 (30.99 KEuro) 

6. Baiardi  Fabrizio  Dipartimento di Informatica, Uni.Pisa 

Prof. Associato 

INF/01  9  99 (51.13 KEuro) 

7. Baraglia  Ranieri  ISTI-CNR, Pisa  Ricercatore (R0) VI 

INF/01  9  89 (45.96 KEuro) 

8. Bartoli  Giancarlo  ISTI-CNR, Pisa  CTP (V Livello) 

INF/01  6  36 (18.59 KEuro) 

9. Bonchi  Francesco  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

10. Bracciali  Andrea  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

11. Caturegli  Paolo  Centro "Serra", Uni.Pisa 

Funzionario Tecnico 

INF/01  9  34 (17.56 KEuro) 

12. Ciriani  Valentina  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

13. Cisternino  Antonio  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

14. Clematis  Andrea  IMA-CNR, Genova  Ricercatore (R1) IV 

INF/01  9  97 (50.10 KEuro) 

15. Colazzo  Dario  Dipartimento di Dottorando  INF/01  5  11 

29

Informatica, Uni.Pisa  (5.68 KEuro) 

16. Coppola  Massimo  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

17. Danelutto  Marco  Dipartimento di Informatica, Uni.Pisa 

Prof. Associato 

NF/01  9  69 (35.64 KEuro) 

18. De Martin  Juan Carlos 

IRITI-CNR, Torino  Ricercatore Art. 36 CNR 

INF/01  3  30 (15.49 KEuro) 

19. De Martino  Monica  IMA-CNR, Genova  Ricercatore (R0) I 

INF/01  6  38 (19.63 KEuro) 

20. Falchi  Mario  ITBA-CNR, Milano  CTP (V Livello) 

INF/01  3  18 (9.30 KEuro) 

21. Falcidieno  Bianca  IMA-CNR, Genova  Ricercatore (R2) V 

INF/01  6  95 (49.06 KEuro) 

22. Ferragina  Paolo  Dipartimento di Informatica 

Prof. Associato 

INF/01  6  45 (23.24 KEuro) 

23. Ferrini  Renato  ISTI-CNR, Pisa  Ricercatore (R1) VI 

INF/01  6  79 (40.80 KEuro) 

24. Forabosco  Paola  IGM-CNR, Milano  IGM-CNR, Milano 

INF/01  3  19 (9.81 KEuro) 

25. Ghelli  Giorgio  Dipartimento di Informatica, Uni.Pisa 

Prof. Associato 

INF/01  6  56 (28.92 KEuro) 

26. Giani  Antonella  Dipartimento di Informatica, Uni.Pisa 

Assegnista  INF/01  9  20 (10.33 KEuro) 

27. Giannotti  Fosca  ISTI-CNR, Pisa  Ricercatore (R0) III 

INF/01  9  68 (35.12 KEuro) 

28. Gozzi  Cristian  ISTI-CNR, Pisa  Assegnista  INF/01  9  21 (10.85 KEuro) 

29. Hatton  John  ITBA-CNR, Milano  CTP (V Livello) 

INF/01  3  18 (9.30 KEuro) 

30. Laforenza  Domenico  ISTI-CNR, Pisa  Ricercatore (R0) VI 

INF/01  12  119 (61.46 KEuro) 

31. Luccio  Fabrizio  Dipartimento di Informatica, Uni.Pisa 

Prof. Ordinario 

INF/01  3  59 (30.47 KEuro) 

32. Mancarella  Paolo  Dipartimento di Informatica, Uni.Pisa 

Prof. Associato 

INF/01  3  30 (15.49 KEuro) 

33. Manghi  Paolo  Dipartimento di Informatica, Uni.Pisa 

Assegnista  INF/01  9  20 (10.33 KEuro) 

34. Marangoni  Roberto  Dipartimento di Informatica, Uni.Pisa 

Ricercatore  INF/01  3  12 (6.20 KEuro) 

35. Melis  Paola  ITBA-CNR, Milano  Ricercatore (R0) I 

  3  19 (9.81 KEuro) 

36. Micheli  Alessio  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

37. Milanesi  Luciano  IGM-CNR, Milano  Ricercatore (R0) I 

  3  19 (9.81 KEuro) 

38. Mori  Paolo  Dipartimento di Informatica, Uni.Pisa 

Assegnista  INF/01  9  21 (10.85 KEuro) 

39. Nanni  Mirko  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

40. Palmerini  Paolo  ISTI-CNR, Pisa  Ricercatore INF/01  9  57 

30

(R0) I  (29.44 KEuro) 

41. Pedreschi  Dino  Dipartimento di Informatica, Uni.Pisa 

Prof. Ordinario 

INF/01  6  60 (30.99 KEuro) 

42. Perego  Raffaele  ISTI-CNR, Pisa  Ricercatore (R0) IV 

INF/01  9  74 (38.22 KEuro) 

43. Pierazzini  Giuseppe  Centro "Serra", Uni.Pisa 

Professore Ordinario 

INF/01  6  51 (26.34 KEuro) 

44. Piratu  Mario  IGM-CNR, Milano  Ricercatore (R2) I livello 

  3  32 (16.53 KEuro) 

45. Pisanti  Nadia  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

46. Pizzi  Corrado  IMA-CNR, Genova  CTP Liv. 4 Fascia 4 

INF/01  6  40 (20.66 KEuro) 

47. Raffaetà  Alessandra  Dipartimento di Informatica, Uni.Pisa 

Assegnista  INF/01  9  20 (10.33 KEuro) 

48. Renso  Chiara  ISTI-CNR, Pisa  Ricercatore (R0) I 

INF/01  9  57 (29.44 KEuro) 

49. Ricci  Laura  Dipartimento di Informatica, Uni.Pisa 

Ricercatore  INF/01  6  42 (21.69 KEuro) 

50. Ruggeri  Salvatore  Dipartimento di Informatica, Uni.Pisa 

Ricercatore  INF/01  3  13 (6.71 KEuro) 

51. Sartiani  Carlo  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

52. Sebastiani  Fabrizio  ISTI-CNR, Pisa  Ricercatore (R0) IV 

INF/01  6  49 (25.31 KEuro) 

53. Silvestri  Fabrizio  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

54. Simi  Maria  Dipartimento di Informatica, Uni.Pisa 

Prof. Associato 

INF/01  3  36 (18.59 KEuro) 

55. Sona  Diego  Dipartimento di Informatica, Uni.Pisa 

Dottorando  INF/01  5  11 (5.68 KEuro) 

56. Spagnuolo  Michela  IMA-CNR, Genova  Ricercatore (R1) I 

INF/01  6  49 (25.31 KEuro) 

57. Sperduti  Alessandro  Dipartimento di Informatica, Uni.Pisa 

Prof. Associato 

INF/01  3  23 (11.88 KEuro) 

58. Starita  Antonina  Dipartimento di Informatica, Uni.Pisa 

Prof. Associato 

INF/01  3  44 (22.72 KEuro) 

59. Suin  Stefano  Centro "Serra", Uni.Pisa 

Elev. Prof. Fascia 2 

INF/01  6  37 (19.11 KEuro) 

60. Turini  Franco  Dipartimento di Informatica, Uni.Pisa 

Prof. Ordinario 

INF/01  9  144 (74.37 KEuro) 

61. Vaglini  Leonardo  Dipartimento di Informatica, Uni.Pisa 

Borsista INFN 

INF/01  5  14 (7.23 KEuro) 

62. Vanneschi  Marco  Dipartimento di Informatica, Uni.Pisa 

Prof. Ordinario 

INF/01  12  212 (109.49 KEuro) 

63. Zini  Paolo  ISTI-CNR, Pisa  CTP Liv. 3 Fascia 4 

INF/01  6  40 (20.66 KEuro) 

                 372  2607 (1346.40 KEuro) 

31

1.5.2 Personale dipendente di Istituzioni non partecipanti come Unità di Ricerca

nº Cognome

Nome Istituzione

Dipartimento/Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo

Costo (ML)

1. Archetti  Francesco  Università di Milano Bicocca 

Dipartimento di Informatica 

Prof. Ordinario 

A04B  2  29 (14.98 KEuro) 

2. Bianchini 

Monica  Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Assegnista  ING-INF/05 

6  14 (7.23 KEuro) 

3. Carotti  Elias  Politecnico di Torino 

Dip. Automatica e Informatica 

Dottorando  ING-INF/05 

4  10 (5.16 KEuro) 

4. Casetti  Claudio  Politecnico di Torino 

Dip. Automatica e Informatica 

Ricercatore n.c. 

ING-INF/05 

4  17 (8.78 KEuro) 

5. Costa  Fabrizio  Universita' di Firenze 

Dipartimento di Sistemi ed Informatica 

Dottorando  INF/01  6  13 (6.71 KEuro) 

6. De Mauro 

Ciro  Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Dottorando  ING-INF/05 

6  13 (6.71 KEuro) 

7. Diligenti  Michelangelo 

Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Dottorando  ING-INF/05 

6  13 (6.71 KEuro) 

8. Gori  Marco  Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Prof. Straordinario 

ING-INF/05 

4  26 (13.43 KEuro) 

9. Maggini  Marco  Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Prof. Associato 

ING-INF/05 

4  29 (14.98 KEuro) 

10.

Marchiori 

Massimo  Universita' di Venezia 

Dipart. di Informatica 

Ricercatore  INF/01  3  12 (6.20 KEuro) 

11.

Marinai  Simone  Universita' di Firenze 

Dipartimento di Sistemi ed Informatica 

Ricercatore  INF/01  4  16 (8.26 KEuro) 

12.

Masala  Enrico  Politecnico di Torino 

Dip. Automatica e Informatica 

Dottorando  ING-INF/05 

4  10 (5.16 KEuro) 

13.

Meo  Angelo Raffaele 

Politecnico di Torino 

Dip. Automatica e Informatica 

Prof. Ordinario 

ING-INF/05 

4  68 (35.12 KEuro) 

14.

Neri  Fabio  Politecnico di Torino 

Dip. Automatica e Informatica 

Prof. Ordinario 

ING-INF/05 

4  72 (37.18 KEuro) 

15.

Orlando  Salvatore  Universita' di Venezia 

Dipart. di Informatica 

Prof. Associato 

INF/01  9  86 (44.42 KEuro) 

16 Passerin Andrea  Universit Dipartimento di Dottorando  INF/01  6  13 

32

. i  a' di Firenze 

Sistemi ed Informatica 

(6.71 KEuro) 

17.

Pontil  Massimiliano 

Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Assegnista  ING-INF/05 

6  14 (7.23 KEuro) 

18.

Risso  Fulvio  Politecnico di Torino 

Dip. Automatica e Informatica 

Assegnista  ING-INF/05 

4  10 (5.16 KEuro) 

19.

Santini  Fabrizio  Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Dottorando  ING-INF/05 

6  13 (6.71 KEuro) 

20.

Scarselli Franco  Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Assegnista  ING-INF/05 

6  13 (6.71 KEuro) 

21.

Soda  Giovanni  Universita' di Firenze 

Dipartimento di Sistemi ed Informatica 

Prof. Straordinario 

INF/01  4  26 (13.43 KEuro) 

22.

Stella  Fabio  Università di Milano Bicocca 

Dipartimento di Informatica 

Prof. Associato 

A04B  4  23 (11.88 KEuro) 

23.

Trentin  Edmondo  Universita' di Siena 

Dipartimento di Ingegneria dell'Informazione 

Assegnista  ING-INF/05 

6  14 (7.23 KEuro) 

24.

Vullo  Alessandro  Universita' di Firenze 

Dipartimento di Ingegneria dell'Informazione 

Dottorando  ING-INF/05 

6  13 (6.71 KEuro) 

                    118  567 (292.83 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.2 SI

1.5.3 Titolari di assegni di ricerca (Riservato alle Strutture Universitarie) 

1.5.4 Titolari di borse di studio, borse per Dottorati di Ricerca e ex L. 398/89 art.4 (post-dottorato e specializzazione) (Riservato alle Strutture Universitarie) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

nº Qualifica Tipologia Mesi/uomo Costo (ML)1. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 

(107.94 KEuro) 2. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 

(107.94 KEuro) 

3. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 

33

(107.94 KEuro) 

4. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

5. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

6. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

7. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

8. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

9. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

10. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

11. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

12. Ricercatore/Tecnologo  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

        396  2.508 (1295.27 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali nº Cognome Nome Istituzione Nazione Qualifica Mesi/uomo Costo (ML)1. Grize  Francois  Istituto di

Informatica, Universita' di Losanna 

SWITZERLAND Professore Ordinario 

4  75 (38.73 KEuro) 

2. Tomassini  Marco  Istituto di Informatica, Universita' di Losanna 

SWITZERLAND Professore Ordinario 

4  75 (38.73 KEuro) 

                 8  150 (77.47 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.6: SI

1.5.7 Mesi uomo complessivi dedicati alle attività proposte   Numero Mesi/uomo Costo (ML) Spese stages e

missioni all'esteroMLit (K€)

1.5.1 Personale dipendente dell'Istituzione sede 63  372  2607  400 

34

dell'Unità di Ricerca (1346.40 KEuro)  (206.58 KEuro) 

1.5.2 Personale dipendente di Istituzioni nazionali non partecipanti come Unità di Ricerca

24  118  567 (292.83 KEuro) 

0 (0.00 KEuro) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

12  396  2508 (1295.27 KEuro) 

0 (0.00 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali

2  8  150 (77.47 KEuro) 

0 (0.00 KEuro) 

TOTALE 101  894  5832 (3011.98 KEuro) 

400 (206.58 KEuro) 

1.6 Descrizione delle attrezzature già disponibili ed utilizzabili per la ricerca proposta

nº Anno di acquisizione Descrizione

1.7.a Descrizione delle strumentazioni, attrezzature e prodotti software da acquisire

nº Descrizione Valore presunto (MLit) Percentuale di utilizzoper le attività proposte

     0 (0.00 KEuro) 

  

1.7.b Descrizione delle grandi attrezzature da acquisire nº Descrizione Valore presunto (MLit) Percentuale di utilizzo

per le attività proposte     0 

(0.00 KEuro)   

1.8 Spese complessive dell'Unità di Ricerca Voce di spesa (DM. 199 Ric. del 08/03/01; art.6, c.6) 

Spesa (MLit) Note

Spese di personale (*) 3.324 (1716.70 KEuro) 

Costo del personale dipendente dalla UR o da altri enti partecipanti alla ricerca 

Spese generali direttamente imputabili all'attività di ricerca nella misura forfettizzata del 60% del costo del personale (compreso quello relativo ai ricercatori)

3.499 (1807.08 KEuro) 

Spese generali dell'attivita' di ricerca calcolate pari al 60% del costo complessivo del personale, incluso quello dei giovani ricercatori che verranno stipendiati con contributo FIRB 

Spese per giovani ricercatori e ricercatori di chiara fama internazionale

2.508 (1295.27 KEuro) 

n. 12 Contratti per giovani ricercatori "ex art. 36" (Tipologia 3) 

Spese per l'acquisizione di strumentazioni, attrezzature e prodotti software, limitatamente alle quote impiegate per lo svolgimento dell'attività oggetto del progetto

0 (0.00 KEuro) 

Non e' previsto l'acquisto di strumentazione con costi a carico di questo progetto 

Spese per stages e missioni all'estero di ricercatori coinvolti nel progetto

400 (206.58 KEuro) 

Spese per missioni all'estero del personale dipendente o assimilato, e per stage all'estero di giovani ricercatori 

35

Costo dei servizi di consulenza e simili utilizzati per l'attività di ricerca

350 (180.76 KEuro) 

1. Spese per esperti internazionali, membri del Comitato Scientifico di Progetto

2. Consulenza a societa' e simili Altri costi di esercizio (ad es. costo dei materiali, delle forniture e dei prodotti analoghi) direttamente imputabili all'attività di ricerca

94 (48.55 KEuro) 

Costi per l'acquisizione di materiale di consumo o assimilati 

TOTALE 10.175 (5254.95 KEuro) 

  

(*) = ricercatori, tecnici ed altro personale adibito all'attività di ricerca, dipendente dal soggetto proponente e/o in rapporto subordinato a termine e/o di collaborazione coordinata e continuativa, ivi inclusi dottorati, assegni di ricerca e le borse di studio che prevedevano attività di formazione attraverso la partecipazione al progetto.Incidenza (in %) del costo della UR sul costo totale della proposta progettuale 23 

  MLitCosto complessivo delle attività previste dalla Proposta progettuale per l'Unità di Ricerca 10.175 

(5254.95 KEuro) 

Fondi disponibili (RD) 3323 (1716.19 KEuro) 

Fondi acquisibili (RA) 0 (0.00 KEuro) 

Finanziamento richiesto al MIUR 4.344 (2243.49 KEuro) 

Finanziamento del MIUR per i contratti triennali 2.508 (1295.27 KEuro) 

1.9 Risorse finanziarie già disponibili all'atto della domanda e utilizzabili a sostegno della Proposta ProgettualeQUADRO RD

Provenienza  Anno di assegnazione

Importo disponibile (MLit)

Note

Propri (*) 2000  3323 (1716.19 KEuro) 

Stipendi dei dipendenti CNR o assimilati, cioe' di personale universitario che, in base a specifiche convenzioni, afferisce a Istituti CNR. L'anno di assegnazione e' da intendere solo come antecedente alla compilazione della domanda 

Pubbliche Amministrazioni

     

EPR (Enti Pubblici di Ricerca)

     

Unione Europea      

Imprese      Fondazioni      

Altro (vedi 1.10)      TOTALE    3323 

(1716.19 KEuro)   

(*) = ad esempio stipendi, assegni di ricerca, borse di studio, dottorati di ricerca, post-dottorato e specializzazione

36

1.10 Risorse finanziarie acquisibili in data successiva a quella della domanda e utilizzabili a sostegno della Proposta Progettuale nell'ambito della durata previstaQUADRO RA

Provenienza  Anno della domanda o stipula del contratto

Stato di approvazione

Quota disponibile per il programma (MLit)

Note

Propri (ad es. stipendi)        Pubbliche Amministrazioni

       

EPR (Enti Pubblici di Ricerca)

       

Unione Europea        

Imprese        Fondazioni        

Altro (vedi 1.10)        TOTALE       0 

(0.00 KEuro)   

1.13 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di cui ai punti 1.9 e 1.10: SI  

37

Unità di Ricerca n. 2

1.1 Descrizione della struttura e dei compiti dell'Unità di Ricerca

Questa Unita' di Ricerca e' costituita in primo luogo da alcuni istituti del CNR: l'Istituto di Scienze e Tecnologie Molecolari, che partecipa sia con la sede di Milano che con le sezioni di Perugia e Padova, e l'Istituto di Metodologie Inorganiche e dei Plasmi, che partecipa con la sezione di Bari e la sede di Roma. Oltre a questi istituti del CNR, sono presenti alcuni dipartimenti universitari: i Dipartimenti di Chimica delle Universita' di Perugia, Napoli "Federico II" e Bari, il Dipartimento di Chimica Fisica e Inorganica dell'Universita' di Bologna, il Dipartimento di Scienza del Farmaco dell'Universita' di Chieti, il Dipartimento di Chimica Inorganica, Metallorganica e Analitica dell'Universita' di Padova, il Dipartimento di Ingegneria Civile ed Ambientale dell'Universita' di Perugia, il Centro di Ateneo per i Servizi Informatici (CASI) dell'Universita' di Perugia e l'Unita' di Progetto "Calcolo e Reti ad Alte Prestazioni (HPCN)" dell'Ente per le Nuove tecnologie, l'Energia e l'Ambiente (ENEA). L'insieme di queste strutture e competenze scientifiche permette di avere a disposizione risorse computazionali e conoscenze chimiche in grado di consentire simulazioni realistiche a priori di grandi molecole, sistemi gassosi, fasi condensate tali da permettere il design di nuovi farmaci, materiali innovativi, device per computer e la comprensione di fenomeni ambientali complessi e processi tecnologici.

La costituzione di questa griglia di laboratori distribuiti sul territorio potra' funzionare come un sistema di prova per sviluppare mezzi e ambienti che permettano l'implementazione di quattro dimostratori delle simulazioni a priori sopra menzionate di processi in fase gassosa a fasci molecolari, cristalli liquidi, reattivita' di grandi molecole e materiali nanostrutturati. Questo dovrebbe costituire la base per costruire un ambiente di realta' virtuale molecolare distribuito. Quest'ambiente potra' essere usato per simulare il comportamento di sistemi chimici reali in condizioni fisiche inaccessibili in laboratorio, per comprenderne i meccanismi coinvolti e per risolvere i problemi aperti nelle descrizioni teoriche.

La ricerca nelle scienze molecolari computazionali puo' progredire sensibilmente grazie al calcolo su griglie. L'ammontare del lavoro computazionale richiesto e la natura distribuita delle conoscenze necessarie nella realta' virtuale molecolare e nelle simulazioni realistiche di sistemi molecolari rende indispensabile strutturare questo tipo di ricerca su griglie. Le potenzialita' delle tecniche basate su griglie verranno esplorate in tre aree di grande rilevanza: fase gassosa, fase condensata e grandi molecole.

Per questo scopo verranno costituiti laboratori distribuiti sul territorio assemblando codici molto complessi che permettono di calcolare energie elettroniche, di integrare equazioni di dinamica nucleare, di estrarre informazioni da banche dati specialistiche, di effettuare le necessarie analisi statistiche, come pure fornire i risultati ottenuti per mezzo di grafici, animazioni e tecniche di realta' virtuale. Questi laboratori basati su griglie costituiranno un sistema di prova ideale per sviluppare mezzi e ambienti che permetteranno agli scienziati di usare piattaforme di calcolo distribuite per effettuare applicazioni computazionali complesse in modo trasparente. Verranno sviluppati dei dimostratori di queste applicazioni chimiche complesse per simulare a priori processi in fase gassosa a fasci molecolari, proprieta' di cristalli liquidi, reattivita' di grandi molecole e materiali nanostrutturati.

The Research Unit is constituted mainly by Institutes of the Italian National Research Council (CNR): the Institute for Molecular Sciences and Technologies, participating with its main location of Milan and the two sections of Perugia and Padua, and the Institute for Inorganic Methodologies and Plasmas, participating with its section of Bari and its main location of Rome. This basic structure is complemented by several University Departments: the Department of Chemistry of the Universities of Perugia, Naples "Federico II" and Bari, the Department of Physical and Inorganic Chemistry of the University of Bologna, the Department of Pharmaceutical Sciences of the University of Chieti, the Department of Inorganic, Metallorganic and Analytical Chemistry of the University of Padua, the Department of Civil and Environmental Engineering of the University of Perugia, the Computer Center (CASI) of the University of Perugia and the Project Unit "High Performance Computing and Networks (HPCN)" of the Italian Institution for new technologies, energy and

38

environment (ENEA). This cluster of structures and competences gathers together a critical mass of chemical knowledge and computational tools to implement realistic a priori simulations for large molecules, for gaseous and condensed phase enabling the design of new drugs, of innovative materials, of computing devices and the understanding of complex environmental phenomena and technological processes.

The constitution of this grid of geographically distributed laboratories will act as a test-bed to develop tools and environments allowing the implementation of four demonstrators of the above mentioned a priori simulations for some molecular beams gas phase processes, liquid crystal systems, large molecules reactivities and nanostructured materials. This shall constitute the basis for building a distributed molecular virtual reality environment. Such an environment will be used for simulating the behaviour of real chemical systems under physically inaccessible conditions, for elucidating the mechanisms involved and for singling out the drawbacks of their theoretical descriptions.

In computational molecular sciences progress in grid computing is a vital ingredient of innovative research. The amount of computational work needed and the distributed nature of the know how involved in molecular virtual reality and realistic simulations of molecular systems make it necessary to structure this type of research on a grid. The potentialities of grid techniques will be exploited in three areas of relevance: the gas phase, the condensed phase and large molecules.

To this end geographically distributed laboratories will be constituted by assembling highly complex packages to calculate electronic energies, to integrate nuclear dynamics equations, to collect necessary information from specialistic data banks, to perform the needed statistical manipulations as well as to render the results using graphics, animation and virtual reality techniques. These grid laboratories will represent an ideal test-bed to develop tools and environments allowing scientists to use distributed computing platforms to run in a transparent way complex computational applications. Demonstrators of these complex chemical applications will be developed to a priori simulate some molecular beams gas phase processes, liquid crystal properties, large molecule reactivities and nanostructured materials.

1.2 Responsabile Scientifico dell'Unità di Ricerca ROSI  MARZIO  RSOMRZ57M01C745A 

(cognome)   (nome)   (CF)  

Direttore  CHIM/07  01/08/1957 

(qualifica)   (settore)   (data di nascita)  

Consiglio nazionale delle ricerche (CNR) 

Istituto di Scienze e Tecnologie Molecolari - Sezione di Perugia (ex-CSCISM) 

 

(Istituzione di appartenenza)(art.5, c.1, DM citato)  

(Dipartimento/Istituto/Divisione/Settore)   (posizione)  

+39 075 5855532  +39 075 5855606  [email protected] 

(prefisso e telefono)   (numero fax)   (indirizzo posta elettronica)  

Referenza Cognome BAUSCHLICHER Nome CHARLES W. Email [email protected] Istituzione NASA AMES Research Center Moffett Fields, CA, USA 

39

1.3 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca

Nato nel 1957, è Professore Associato di Chimica presso la Facoltà di Ingegneria dell'Università di Perugia dal 1992. Nel marzo 2000 ha conseguito l'idoneità a Professore Ordinario di Chimica (gruppo disciplinare CHIM/07). Dottore di ricerca in scienze chimiche nel 1987, ha trascorso un anno (1988) presso il NASA Ames Research Center di Moffett Field (USA) con una borsa CNR. Nel 1989 è diventato ricercatore presso la Facoltà di Scienze MM.FF.NN. dell'Università di Perugia e quindi, nel 1992, professore associato di chimica con afferenza al Dipartimento di Ingegneria Civile ed Ambientale. Nel 1996 con una borsa NATO Senior ha svolto ricerche presso il NASA Ames Research Center di Moffett Field (USA). Esperto di tecnologie informatiche, dal 15 aprile 1999 è direttore del Centro di Studio CNR per il Calcolo Intensivo in Scienze Molecolari (CSCISM) di Perugia. E' stato chiamato dalla Facolta' di Ingegneria di Perugia come Professore Ordinario di Chimica con decorrenza 1/11/01.

Born in 1957, he is Associate Professor of Chemistry at the Faculty of Engineering of Perugia, from 1992. In March 2000 he takes his habilitation as Full Professor of Chemistry (group CHIM/07). After the Ph.D, one year at the NASA Ames Research Center of Moffett Field, USA, with a CNR Grant (1987). In 1989, Researcher at the Science Faculty of the University of Perugia and, from 1992, Associate Professor of Chemistry belonging to the Department of Civil and Environmental Engineering. In 1996, with a NATO Senior Grant, he works at the NASA Ames Research Center of Moffett Field, USA. Expert of computer science, from April 1999, he is Director of the CNR Study Center for High Performance Computing in Molecular Sciences. Starting November 1st, 2001, he will be Full Professor of Chemistry at the Faculty of Engineering of Perugia.

1.4 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca nº Pubblicazione1. BELANZONI P.; ROSI M.; SGAMELLOTTI A. (2001). A density functional investigation on d0-

Zr(IV) organometallic fragments CHEMICAL PHYSICS LETTERS. (vol. 344 pp. 536-542)  2. CACACE F.; CIPOLLINI R.; DE PETRIS G.; ROSI M.; TROIANI A. (2001). A new sulfur oxide,

OSOSO, and its cation, likely present in the Io's atmosphere: detection and characterization by mass spectrometric and theoretical methods JOURNAL OF THE AMERICAN CHEMICAL SOCIETY. (vol. 123 pp. 478-484)  

3. CACACE F.; DE PETRIS G.; ROSI M.; TROIANI A. (2001). Ionization of O3 in excess N2: a new route to N2O via intermediate N2O3+ complexes ANGEWANDTE CHEMIE-INTERNATIONAL EDITION. (vol. 40 pp. 1938-1941)  

4. CACACE F.; DE PETRIS G.; ROSI M.; TROIANI A. (2001). Ionization of atmospheric gases containing ozone and carbonyl sulfide. Formation and reactivity of SO+ ions JOURNAL OF PHYSICAL CHEMISTRY. (vol. 105 pp. 1144-1149)  

5. FLORIANI C.; SOLARI E.; FRANCESCHI F.; SCOPELLITI R.; BELANZONI P.; ROSI M. (2001). Metal-metal and carbon-carbon bonds as potential components of molecular batteries CHEMISTRY. (vol. 7 pp. 3052-3061)  

1.4.a Titoli scientifici più significativi del Responsabile Scientifico dell'Unità di Ricerca

L’attività scientifica, documentata da oltre 100 pubblicazioni su riviste internazionali e numerose comunicazioni a congressi, consiste sia in problematiche metodologiche e di implementazione di programmi

40

di calcolo ottimizzati per elaboratori massicciamente paralleli che in aspetti applicativi numericamente intensivi e richiedenti grosse risorse di calcolo, di rilevante interesse chimico e di viva attualità. Tra i problemi chimici di cui si interessa attualmente ricordiamo:studio di specie sia cariche (anioni, cationi) che neutre (radicali, molecole instabili) di interesse nella chimica dell’atmosfera e in problemi connessi all’inquinamento ambientale;studio della struttura elettronica e delle proprietà di legame di sistemi contenenti metalli di transizione, importanti a fini catalitici e nella progettazione di nuovi materiali;progettazione molecolare di sistemi in grado di funzionare come accumulatori di elettroni (batterie molecolari) o energia (motori molecolari);calcolo accurato di osservabili spettroscopiche;modellizzazione nel campo delle nanotecnologie.

Nell'ambito di quest'ultima tematica e' risultato vincitore, assieme a un gruppo di ricerca del NASA Ames Research Center di Moffett Field, California, del premio Feynman 1997 per le nanotecnologie assegnato dal Foresight Insitute di Palo Alto (California).E' direttore dell'Unita' Operativa di Perugia del Progetto Finalizzato CNR "Materiali Speciali per Tecnologie Avanzate II".Dall'aprile 1999 e' Direttore del Centro di Studio CNR per il Calcolo Intensivo in Scienze Molecolari, che e' ora diventato parte dell'Istituto di Scienze e Tecnologie Molecolari.E' Presidente del comitato tecnico-scientifico del consorzio SIR Umbria, consorzio degli enti locali umbri per lo sviluppo dei sistemi informativi regionali.E' responsabile scientifico dell'Unita' di Perugia del CSCISM del Network Europeo ENACTS (European Network for Advanced Computing Technology for Science).E' proponente e membro del Centro di Eccellenza dell'Universita' di Perugia "Tecnologie scientifiche innovative applicate alla ricerca archeologica e storico-artistica".E' stato ricercatore o professore visitatore di varie universita' e centri di ricerca internazionali, quali il NASA Ames Research Center di Moffett Field, California (USA), l'EPSRC di Daresbury (UK), l'ICI di Runcorn (UK), l'IBM-ECSEC di Roma, l'ENEA di Frascati, le Universita' di Lund (Svezia), Losanna (Svizzera), Berkeley (USA).

The research activity, whose results are reported in more than 100 scientific publications on international journals and several communications, is related both to methodological problems and implementation of computer codes optimized for massively parallel systems and to applications at the state of the art in chemistry requiring heavy computer resources. Among the applications we can mention:study of species both charged (anions, cations) and neutral (radicals, unstable molecules) of interest in the chemistry of the atmosphere and for environmental pollution;study of the electronic structure and bonding properties of systems with transition metals, relevant in catalysis and for the design of new materials;molecular design of systems able to store electrons (molecular batteries) or energy (molecular motors);accurate calculations of spectroscopic observables;modeling in the field of nanotechnologies.

In the context of the research field of nanotechnologies, he was awarded, together with a research team of the NASA Ames Research Center of Moffett Field (California), with the 1997 Feynman prize on nanotechnologies by the Foresight Institute of Palo Alto (California).He is Director of the Perugia Research Unit of the CNR targeted project "Special Materials for Advanced Technologies II (MSTA II)".From April 1999 he is Director of the CNR Center for High Performance Computing in Molecular Sciences (CSCISM), which now is part of the CNR Institute for Molecular Sciences and Technologies.He is President of the technical-scientific Committee of the SIR Umbria Consortium, whose members are all the Umbria regional Institutions interested in the development of a regional computer network.He is scientific coordinator of the Perugia CSCISM unit of the European Network ENACTS (European Network for Advanced Computing Technology for Science).He is member of the Steering Committee of the Center of Excellence of the University of Perugia "Innovative Scientific Technologies Applied to the Archaelogical and Art-Historical Research".He has been visiting scientist or professor in several international research centers or universities, as the NASA Ames Research Center of Moffett Field, California (USA), the EPSRC of Daresbury (UK), the ICI of Runcorn (UK), the IBM-ECSEC of Rome, the ENEA of Frascati, and the Universities of Lund (Sweden), Lausanne (Switzerland), Berkeley (USA).

41

1.5 Risorse umane da impegnare nelle attività dell'Unità di Ricerca

1.5.1 Personale dipendente dell'Istituzione, sede dell'Unità di ricerca nº Cognome Nome Dipartimento/

Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo

Costo (ML)

1. ARMENISE  IOLE  Istituto di Metodologie Inorganiche e dei Plasmi - Sezione di Bari 

Ricercatore  CHIM/02  6  49 (25.31 KEuro) 

2. BARZAGHI  MARIO  Istituto di Scienze e Tecnologie Molecolari - Sede di Milano 

Primo Ricercatore 

CHIM/02  6  65 (33.57 KEuro) 

3. BIZZARRI  OLIVIA  Istituto di Scienze e Tecnologie Molecolari - Sezione di Perugia 

Collaboratore Tecnico 

  6  33 (17.04 KEuro) 

4. BRUNO  DOMENICO  Istituto di Metodologie Inorganiche e dei Plasmi - Sezione di Bari 

Ricercatore  CHIM/02  6  49 (25.31 KEuro) 

5. CAPITELLI  MARIO  IMIP - Sezione di Bari e Uni. Bari Dipartimento di Chimica 

Professore Ordinario 

CHIM/03  3  47 (24.27 KEuro) 

6. CASALONE  GIANLUIGI  Istituto di Scienze e Tecnologie Molecolari - Sede di Milano 

Dirigente di Ricerca 

CHIM/02  3  43 (22.21 KEuro) 

7. COLONNA  GIAMPIERO  Istituto di Metodologie Inorganiche e dei Plasmi - Sezione di Bari 

Ricercatore  CHIM/02  6  49 (25.31 KEuro) 

8. DE ANGELIS  FILIPPO  Istituto di Scienze e Tecnologie Molecolari - Sede di Milano 

Ricercatore  CHIM/03  6  49 (25.31 KEuro) 

9. FANTACCI  SIMONA  Istituto di Scienze e Tecnologie Molecolari - Sezione di Perugia 

Ricercatore  CHIM/03  6  49 (25.31 KEuro) 

10. FORNI  ALESSANDRA 

Istituto di Scienze e Tecnologie Molecolari - Sede di Milano 

Ricercatore  CHIM/02  6  49 (25.31 KEuro) 

11. GATTI  CARLO  Istituto di Scienze e Tecnologie Molecolari - Sede di Milano 

Primo Ricercatore 

CHIM/02  6  65 (33.57 KEuro) 

42

12. LONGO  SAVINO  IMIP - Sezione di Bari e Uni. Bari Dipartimento di Chimica 

Professore Associato 

CHIM/03  6  60 (30.99 KEuro) 

13. MERCURI  FRANCESCO  Istituto di Scienze e Tecnologie Molecolari - Sezione di Perugia 

Borsista    9  25 (12.91 KEuro) 

14. PENOTTI  FABIO  Istituto di Scienze e Tecnologie Molecolari - Sede di Milano 

Ricercatore  CHIM/02  6  49 (25.31 KEuro) 

15. ROSI  MARZIO  ISTM - Sezione di Perugia e Uni. Perugia Dipartimento di Ingegneria Civile ed Ambientale 

Professore Associato 

CHIM/07  6  60 (30.99 KEuro) 

16. SGAMELLOTTI 

ANTONIO  ISTM - Sezione di Perugia e Uni. Perugia Dipartimento di Chimica 

Professore Ordinario 

CHIM/03  3  47 (24.27 KEuro) 

17. TARANTELLI  FRANCESCO  ISTM - Sezione di Perugia e Uni. Perugia Dipartimento di Chimica 

Professore Ordinario 

CHIM/03  3  47 (24.27 KEuro) 

18. VITILLARO  GIUSEPPE  Istituto di Metodologie Inorganiche e dei Plasmi - Sede di Roma 

Primo Tecnologo 

  3  32 (16.53 KEuro) 

19. VITTADINI  ANDREA  Istituto di Scienze e Tecnologie Molecolari - Sezione di Padova 

Primo Ricercatore 

CHIM/03  6  65 (33.57 KEuro) 

                 102  932 (481.34 KEuro) 

1.5.2 Personale dipendente di Istituzioni non partecipanti come Unità di Ricerca

nº Cognome Nome Istituzione

Dipartimento/Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo

Costo (ML)

1. ARCIONI  ALBERTO  Universita' di Bologna 

Dipartimento di Chimica Fisica ed Inorganica 

Ricercatore 

CHIM/03 3  22 (11.36 KEuro) 

2. BARACCA  CRISTINA  ENEA  Unita' HPCN  Ricercatore 

  3  25 (12.91 KEuro) 

3. BARONE  VINCENZO  Universit Dipartimento di Professore CHIM/02 3  47 

43

a' di Napoli Federico II 

Chimica  Ordinario  (24.27 KEuro) 

4. BELANZONI  PAOLA  Universita' di Perugia 

Dipartimento di Chimica 

Ricercatore 

CHIM/03 3  21 (10.85 KEuro) 

5. BENZI  CATERINA  Univerista' di Napoli Federico II 

Dipartimento di Chimica 

Dottoranda   6  11 (5.68 KEuro) 

6. BERARDI  ROBERTO  Universita' di Bologna 

Dipartimento di Chimica Fisica ed Inorganica 

Ricercatore 

CHIM/03 3  22 (11.36 KEuro) 

7. CASARIN  MAURIZIO  Universita' di Padova 

Dipartimento di Chimica Inorganica, Metallorganica ed Analitica 

Professore Ordinario 

CHIM/03 3  47 (24.27 KEuro) 

8. CASAVOLA  ANNARITA  Universita' di Bari 

Dipartimento di Chimica 

Dottoranda   6  11 (5.68 KEuro) 

9. CELINO  MASSIMO  ENEA  Unita' HPCN  Ricercatore 

  3  25 (12.91 KEuro) 

10.

COLETTI  CECILIA  Universita' di Chieti 

Dipartimento di Scienza del Farmaco 

Ricercartore 

CHIM/03 3  22 (11.36 KEuro) 

11.

COSSI  MAURIZIO  Universita' di Napoli Federico II 

Dipartimento di Chimica 

Professore Associato 

CHIM/02 3  30 (15.49 KEuro) 

12.

CRESCENZI  ORLANDO  Universita' di Napoli Federico II 

Dipartimento di Chimica 

Ricercatore 

CHIM/02 3  22 (11.36 KEuro) 

13.

CROCCHIANTI 

STEFANO  Universita' di Perugia 

Dipartimento di Chimica 

Assegnista    6  16 (8.26 KEuro) 

14.

DI STEFANO 

MARCO  Universita' di Perugia 

Dipartimento di Chimica 

Dottorando   6  11 (5.68 KEuro) 

15.

FAGINAS LAGO 

NOELIA  Universita' di Perugia 

Dipartimento di Chimica 

Contrattista 

  6  11 (5.68 KEuro) 

16.

GERVASI  OSVALDO  Universita' di Perugia 

Centro di Ateneo per i Servizi Informatici 

Collaboratore Tecnico 

  6  44 (22.72 KEuro) 

17.

GIORGI  GIACOMO  Universita' di Perugia 

Dipartimento di Chimica 

Dottorando   6  11 (5.68 KEuro) 

18.

IMPROTA  ROBERTO  Universita' di

Dipartimento di Chimica 

Assegnista    6  16 (8.26 KEuro) 

44

Napoli Federico II 

19.

LAGANA'  ANTONIO  Universita' di Perugia 

Dipartimento di Chimica 

Professore Ordinario 

CHIM/03 3  47 (24.27 KEuro) 

20.

LANGELLA  EMMA  Universita' di Napoli Federico II 

Dipartimento di Chimica 

Dottoranda   6  11 (5.68 KEuro) 

21.

MACCATO  CHIARA  Universita' di Padova 

Dipartimento di Chimica Inorganica, Metallorganica ed Analitica 

Ricercatore 

CHIM/03 3  22 (11.36 KEuro) 

22.

MARRONE  ALESSANDRO 

Universita' di Chieti 

Dipartimento di Scienza del Farmaco 

Borsista    6  11 (5.68 KEuro) 

23.

NUNZI  FRANCESCA 

Universita' di Perugia 

Dipartimento di Chimica 

Dottoranda   6  11 (5.68 KEuro) 

24.

ORLANDI  SILVIA  Universita' di Bologna 

Dipartimento di Chimica Fisica ed Inorganica 

Assegnista    6  16 (8.26 KEuro) 

25.

PACIFICI  LEONARDO  Universita' di Perugia 

Dipartimento di Chimica 

Dottorando   9  16 (8.26 KEuro) 

26.

PALAZZARI  PAOLO  ENEA  Unita' HPCN  Ricercatore 

  3  25 (12.91 KEuro) 

27.

PIERMARINI  VALENTINA  Universita' di Perugia 

Dipartimento di Chimica 

Dottoranda   9  16 (8.26 KEuro) 

28.

PIETANZA  DANIELA  Universita' di Bari 

Dipartimento di Chimica 

Dottorando   8  15 (7.75 KEuro) 

29.

RE  NAZZARENO 

Universita' di Chieti 

Dipartimento di Scienza del Farmaco 

Professore Associato 

CHIM/03 3  30 (15.49 KEuro) 

30.

REGA  NADIA  Universita' di Napoli Federico II 

Dipartimento di Chimica 

Assegnista    5  14 (7.23 KEuro) 

31.

RICCI  MATTEO  Universita' di Bologna 

Dipartimento di Chimica Fisica ed Inorganica 

Dottorando   8  15 (7.75 KEuro) 

32.

RIGANELLI  ANTONIO  Universita' di Perugia 

Dipartimento di Chimica 

Assegnista    6  16 (8.26 KEuro) 

33.

ROSATO  VITTORIO  ENEA  Unita' HPCN  Ricercatore 

  3  25 (12.91 KEuro) 

34.

SARACINO  GLORIA ANNA ADA 

Universita' di Napoli

Dipartimento di Chimica 

Dottoranda   6  11 (5.68 KEuro) 

45

Federico II 

35.

SCALMANI  GIOVANNI  Universita' di Napoli Federico II 

Dipartimento di Chimica 

Ricercatore 

CHIM/02 3  22 (11.36 KEuro) 

36.

SKOUTERIS  DIMITRIS  Universita' di Perugia 

Dipartimento di Chimica 

Borsista    6  11 (5.68 KEuro) 

37.

TACCOGNA  FRANCESCO 

Universita' di Bari 

Dipartimento di Chimica 

Dottorando   8  15 (7.75 KEuro) 

38.

TASSO  SERGIO  Universita' di Perugia 

Centro di Ateneo per i Servizi Informatici 

Collaboratore Tecnico 

  3  22 (11.36 KEuro) 

39.

VILLANI  CRISTIAN  Universita' di Perugia 

Dipartimento di Chimica 

Dottorando   9  16 (8.26 KEuro) 

40.

ZANNONI  CLAUDIO  Universita' di Bologna 

Dipartimento di Chimica Fisica ed Inorganica 

Professore Ordinario 

CHIM/03 3  47 (24.27 KEuro) 

                    200  848 (437.96 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.2 SI

1.5.3 Titolari di assegni di ricerca (Riservato alle Strutture Universitarie) 

1.5.4 Titolari di borse di studio, borse per Dottorati di Ricerca e ex L. 398/89 art.4 (post-dottorato e specializzazione) (Riservato alle Strutture Universitarie) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

nº Qualifica Tipologia Mesi/uomo Costo (ML)1. Borsista  Contr. triennale per giov. ricerc.   33  90 

(46.48 KEuro) 

2. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

3. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

4. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

5. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

46

6. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

7. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

8. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

        264  720 (371.85 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali nº Cognome Nome Istituzione Nazione Qualifica Mesi/uomo Costo (ML)                 0  0 

(0.00 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.6:

1.5.7 Mesi uomo complessivi dedicati alle attività proposte   Numero Mesi/uomo Costo (ML) Spese stages e

missioni all'esteroMLit (K€)

1.5.1 Personale dipendente dell'Istituzione sede dell'Unità di Ricerca

19  102  932 (481.34 KEuro) 

180 (92.96 KEuro) 

1.5.2 Personale dipendente di Istituzioni nazionali non partecipanti come Unità di Ricerca

40  200  848 (437.96 KEuro) 

250 (129.11 KEuro) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

8  264  720 (371.85 KEuro) 

150 (77.47 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali

0  0  0 (0.00 KEuro) 

0 (0.00 KEuro) 

TOTALE 67  566  2500 (1291.14 KEuro) 

580 (299.55 KEuro) 

1.6 Descrizione delle attrezzature già disponibili ed utilizzabili per la ricerca proposta

Anno di acquisizione

Descrizione

1. 2000   Sistema Beowulf con 16 processori Pentium

Beowulf system with 16 Pentium processors  2. 2000   Cluster di wokstation SUN

Cluster of SUN workstations  3. 2000   2 Cluster di PC Linux con 20 CPU

2 Clusters of Linux PCs with 20 CPUs  

47

4. 2000   2 SGI Origin200 con 4 CPU

2 SGI Origin200 with 4CPUs  5. 2000   3 SGI O2

3 SGI O2  6. 2001   Computer IBM SP 9076 a 16 processori

IBM SP 9076 computer with 16 processors  

1.7.a Descrizione delle strumentazioni, attrezzature e prodotti software da acquisire

nº Descrizione Valore presunto (MLit) Percentuale di utilizzoper le attività proposte

     0 (0.00 KEuro) 

  

1.7.b Descrizione delle grandi attrezzature da acquisire nº Descrizione Valore presunto (MLit) Percentuale di utilizzo

per le attività proposte     0 

(0.00 KEuro)   

1.8 Spese complessive dell'Unità di Ricerca Voce di spesa (DM. 199 Ric. del 08/03/01; art.6, c.6) 

Spesa (MLit) Note

Spese di personale (*) 1.780 (919.29 KEuro) 

Costo del personale dipendente dalla UR o da altri enti partecipanti alla ricerca 

Spese generali direttamente imputabili all'attività di ricerca nella misura forfettizzata del 60% del costo del personale (compreso quello relativo ai ricercatori)

1.500 (774.69 KEuro) 

Spese generali dell'attivita' di ricerca calcolate pari al 60% del costo complessivo del personale, inclusi i giovani ricercatori che verrano stipendiati con il contributo FIRB 

Spese per giovani ricercatori e ricercatori di chiara fama internazionale

720 (371.85 KEuro) 

n. 8 borse di studio per giovani ricercatori 

Spese per l'acquisizione di strumentazioni, attrezzature e prodotti software, limitatamente alle quote impiegate per lo svolgimento dell'attività oggetto del progetto

0 (0.00 KEuro) 

Non e' previsto l'acquisto di strumentazioni con costi a carico di questo progetto 

Spese per stages e missioni all'estero di ricercatori coinvolti nel progetto

580 (299.55 KEuro) 

Spese per missioni all'estero del personale dipendente o assimilato e per stages all'estero di giovani ricercatori 

Costo dei servizi di consulenza e simili utilizzati per l'attività di ricerca

0 (0.00 KEuro) 

Non sono previste consulenze 

Altri costi di esercizio (ad es. costo dei materiali, delle forniture e dei prodotti analoghi) direttamente imputabili all'attività di ricerca

0 (0.00 KEuro) 

Non sono previsti altri costi con spese a carico di questo progetto 

TOTALE 4.580    

48

(2365.37 KEuro) 

(*) = ricercatori, tecnici ed altro personale adibito all'attività di ricerca, dipendente dal soggetto proponente e/o in rapporto subordinato a termine e/o di collaborazione coordinata e continuativa, ivi inclusi dottorati, assegni di ricerca e le borse di studio che prevedevano attività di formazione attraverso la partecipazione al progetto.Incidenza (in %) del costo della UR sul costo totale della proposta progettuale 11 

  MLitCosto complessivo delle attività previste dalla Proposta progettuale per l'Unità di Ricerca 4.580 

(2365.37 KEuro) Fondi disponibili (RD) 1780 

(919.29 KEuro) 

Fondi acquisibili (RA) 0 (0.00 KEuro) 

Finanziamento richiesto al MIUR 2.080 (1074.23 KEuro) 

Finanziamento del MIUR per i contratti triennali 720 (371.85 KEuro) 

1.9 Risorse finanziarie già disponibili all'atto della domanda e utilizzabili a sostegno della Proposta ProgettualeQUADRO RD

Provenienza  Anno di assegnazione

Importo disponibile (MLit)

Note

Propri (*) 2000  1780 (919.29 KEuro) 

Stipendi dipendenti CNR o assimilati, cioe' personale universitario che, in base a specifiche convenzioni, afferisce a istituti CNR o personale dipendente di istituzioni non partecipanti come Unita' di Ricerca, inclusi assegnisti di ricerca, borsisti e dottorandi. L'anno di assegnazione e' da intendere solo come antecedente alla compilazione della domanda. 

Pubbliche Amministrazioni

     

EPR (Enti Pubblici di Ricerca)

     

Unione Europea      Imprese      

Fondazioni      Altro (vedi 1.10)      

TOTALE    1780 (919.29 KEuro) 

  

(*) = ad esempio stipendi, assegni di ricerca, borse di studio, dottorati di ricerca, post-dottorato e specializzazione

49

1.10 Risorse finanziarie acquisibili in data successiva a quella della domanda e utilizzabili a sostegno della Proposta Progettuale nell'ambito della durata previstaQUADRO RA

Provenienza  Anno della domanda o stipula del contratto

Stato di approvazione

Quota disponibile per il programma (MLit)

Note

Propri (ad es. stipendi)        Pubbliche Amministrazioni

       

EPR (Enti Pubblici di Ricerca)

       

Unione Europea        

Imprese        Fondazioni        

Altro (vedi 1.10)        TOTALE       0 

(0.00 KEuro)   

1.13 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di cui ai punti 1.9 e 1.10: SI  

50

Unità di Ricerca n. 3

1.1 Descrizione della struttura e dei compiti dell'Unità di Ricerca

L’unità di ricerca CPS-CNR è composta da ricercatori appartenenti a: - CERE-CNR (PA),- CPS-CNR (NA),- IFCAI-CNR (PA),- ISI-CNR (CS),che confluiranno nel costituendo Istituto del CNR denominato Istituto di Calcolo e Reti ad Alte Prestazioni (ICAR), ed inoltre da ricercatori afferenti a:- CED-CNR (RM),- Seconda Università di Napoli,- Università della Calabria(CS),- Università del Sannio,- Università de L’Aquila,- Università di Firenze,- Università di Genova,- Università di Napoli “Federico II”,- Università di Napoli “Partenope”,- Università di Roma "Tor Vergata".

Tali ricercatori hanno già collaborato tra loro a numerosi progetti di ricerca, tra cui PQE2000, progetti di Agenzia 2000, progetti speciali MIUR 1999 e 2000. La comunanza di interessi e la pluralità di competenze dei singoli ricercatori rappresenta la ricchezza indispensabile per il conseguimento dei risultati attesi nei singoli WP.

I componenti dell’UR sono coinvolti in vari Workpackage del progetto, come di seguito riportato:

WP 3: Grid DeploymentNel WP 3, in cui sono coinvolti tutti i gruppi della UR, fatta eccezione per alcuni ricercatori, ci si propone di partecipare alla realizzazione di nodi della griglia computazionale presso le proprie sedi.

WP 4: SecurityNel WP 4, i gruppi del CED-CNR, Università dell’Aquila e Università di Roma “Tor Vergata” (Prof. Talamo), si propongono di estendere i meccanismi della Public Key Infrastructure (PKI) alla cooperazione inter-organizzativa nell'ambito dell'infrastruttura di griglia.

WP 6: Knowledge Services for Intensive Data Analysis, Intelligent Searching, and Intelligent Query AnsweringNel WP 6, il gruppo dell’ISI-CNR, si propone la progettazione e la realizzazione di servizi di knowledge discovery e data mining su griglie tramite lo sviluppo dell’architettura Knowledge Grid come infrastruttura di base dei servizi di knowledge discovery distribuito.

WP 7: Grid PortalsNel WP 7, il gruppo dell’ISI-CNR, si propone lo studio e la definizione di algoritmi e tecniche per la compressione/sintesi semantica dei dati per lo sviluppo di un nuovo motore di ricerca/knowledge broker con accesso ai dati e metadati presenti su griglie e Internet attraverso viste multidimensionali.

WP 8: High-performance Component-based Programming EnvironmentLe attività del CPS-CNR in questo WP hanno come obiettivo la realizzazione, quale parte integrante dell’ambiente, di un insieme ampliabile di componenti (toolkit) di supporto per applicazioni scientifiche, che consenta l’utilizzazione di algoritmi numerici e software di base "up-to-date", in maniera il più possibile trasparente ed efficiente, su un’ampia gamma di architetture GRID/netputing ad alte prestazioni.Nel WP 8, i gruppi dell’IFCAI-CNR e del CERE-CNR si propongono di definire i servizi di un DS in grado di fornire all’ambiente applicativo sia una descrizione dinamica del contenuto delle librerie disponibili su griglia

51

sia valutazioni della qualità del servizio ottenibile dai vari ASP di libreria. Si vuole sviluppare un SDK per la sua implementazione a livello "Collective" dell’architettura di Protocollo di griglia e definire le API per il suo utilizzo da parte delle applicazioni demo del Progetto. L’obiettivo dell’ISI-CNR, nell’ambito del WP 8, è lo studio e la definizione di strumenti di programmazione per network computing e griglie, con enfasi su usabilità, configurazione dinamica, portabilità, interoperabilità e affidabilità delle prestazioni. Tali strumenti saranno usati per la composizione di "Problem Solving Environment".Nel WP8, infine, il CED-CNR si propone di progettare e realizzare componenti a partire da specifiche rigorose basate su regole di pre-post condizioni che consentano di caratterizzare la relazione job-risorse dell’ architettura Grid e di sviluppare ambienti Grid a partire da un repository di schemi di composizione (pattern) di componenti a diversi livelli di granularità.

WP 9 - Grid-enabled Scientific LibrariesNel WP 9, le attività del CPS-CNR, insieme con ricercatori delle Università di Firenze, Genova e Napoli, saranno rivolte alla definizione e all’implementazione di un insieme di moduli software per l’analisi, la ricostruzione ed il riconoscimento di immagini.Le attività dell’Università di Roma “Tor Vergata” saranno invece rivolte allo sviluppo di elementi di software basati su algoritmi iterativi per la risoluzione di sistemi lineari ed il calcolo di autovalori ed autovettori. Le attività dell’Università della Calabria mireranno essenzialmente ad integrare la ricerca fondamentale nell’ambito degli algoritmi di ottimizzazione con gli strumenti di sviluppo per la gestione di risorse distribuite su scala geografica, con l'obiettivo di sviluppare algoritmi nelle aree della programmazione non lineare, della programmazione stocastica, dell'ottimizzazione su reti e dell'ottimizzazione combinatoria.Infine, l’obiettivo delle attività dell’IFCAI-CNR e del CERE-CNR è la definizione di regole, la selezione di modelli di programmazione e lo sviluppo di strumenti di ausilio alla programmazione, che permettano di integrare in una Libreria Virtuale moduli applicativi sviluppati in laboratori e per applicazioni distinte, renderne immediato l’utilizzo remoto, e fornire alla comunità scientifica componenti software per la realizzazione di un Laboratorio Virtuale di Image Processing.

WP 11: Grid Applications for Earth Observation Systems ApplicationLe attività del CPS-CNR, nell'ambito del WP 11 sono rivolte allo sviluppo di un’applicazione avanzata su GRID nel campo della meteorologia e del monitoraggio dell’inquinamento atmosferico. Il dominio spaziale di interesse è costituito dall’Italia meridionale, mentre i principali nodi dell’infrastruttura computazionale sono Napoli e Lecce.Nell’ambito del WP 11, il gruppo dell’ISI-CNR ha come obiettivo l’integrazione nella piattaforma di griglia computazionale di un’applicazione riguardante la simulazione parallela di frane con la possibilità di reperire dati morfologici e iperspettrali pre e post frana da siti presenti sulla griglia.

CPS-CNR research unit is composed of researchers from:- CERE-CNR (PA),- CPS-CNR (NA),- IFCAI-CNR (PA),- ISI-CNR (CS),that are going to establish a new CNR institute named "Institute for High-Performance Computing and Networking (ICAR)", and of researchers from: - CED-CNR (RM),- Second University of Naples,- University of Calabria (CS),- University of Sannio,- University of L’Aquila, - University of Florence, - University of Genoa, - University of Naples “Federico II”,- University of Naples “Partenope”,- University of Rome "Tor Vergata".

These researchers already cooperated in many projects; among them we cite "PQE2000", various projects in "CNR Agenzia 2000", MIUR 1999 and 2000 special projects. The affinity of interests and the diversity of competences of the single researchers represent the indispensable richness to obtain the expected results for each WP.

52

Members of UR are involved in several workpackages of the project, as described below:

WP 3: Grid DeploymentIn WP 3, which involves all UR groups, except some researchers, it has been proposed to deploy of the nodes of the computational grid at each site.

WP 4: SecurityIn WP 4, CED-CNR, University of L’Aquila and University of Rome "Tor Vergata" (Prof. Talamo) propose to extend the mechanisms of the Public Key Infrastructure (PKI) to the Inter-organizational within the grid infrastructure.

WP 6: Knowledge Services for Intensive Data Analysis, Intelligent Searching, and Intelligent Query AnsweringIn WP 6, ISI-CNR group proposes planning and realization of services of knowledge discovery and mining on grids through the development of Knowledge Grid architecture, as a basic infrastructure of the services of distributed knowledge discovery.

WP 7: Grid Portals In WP 7, ISI-CNR group proposes study and definition of algorithms and techniques for the compression/semantic synthesis of data for the development of a new search engine/knowledge broker with access to data and metadata on grids and Internet through multidimensional sights.

WP 8: High-performance Component-based Programming EnvironmentIn WP 8, IFCAI-CNR and CERE-CNR gropus propose to define the services of a DS in a position to supply to the application environment both a dynamic description of the content of the libraries available on grid and quality of service evaluation obtainable from different library ASP. A SDK will be developed as a grid protocol to the Collective level, APIs will be defined for its use as a part of the applications demos of the project. The activities of the CPS-CNR in this WP are devoted to the development, as an integrated part of the environment, of an expandable set of components (toolkit) to support scientific applications, that will enable the use of numerical algorithms and up-to-date basic software, in a transparent and efficient way, on a wide range of GRID/netputing high-performance architectures. In this WP, the activity of ISI-CNR is aimed at the study and the definition of programming tools for network computing and grids with emphasis on usability, dynamic configuration, portability, interoperability, reliability and performance. Such tools will be used as building blocks for the development of Problem Solving Environments. CED-CNR has proposed to study and develop rigorous specifications based on rules of pre-post conditions that concur to characterize the job-resource relationship of a Grid architecture and to develope Grid environments such as repositories, starting from composition patterns at various granularity levels.

WP 9: Grid-enabled Scientific Libraries In WP 9, the activities of the CPS-CNR and of researchers from the Universities of Florence, Genoa and Naples will be devoted to the definition and implementation of software modules for the analysis reconstruction and recognition of images. The activities of University of Rome "Tor Vergata" (Prof. Bisegna) will be devoted to the development of software modules based on iterative algorithms for the solution of linear systems and the computation of eigenvalues and eigenvectors.The activities of University of Calabria will be essentially aimedat integrating the fundamental research on optimization algorithms with development tools for the management of geographically distributed resources. The goal is to develop algorithms in the areas of non-linear programming, stochastic programming, network optimisation and combinatory optimisation.Finally, the activities of IFCAI-CNR and CERE-CNR are aimed at the design of rules, the selection of protocols and the development of software tools to help collecting in a Virtual Library of Image Processing and Pattern Recognition modules developed in different laboratories for different applications, allowing their remote and seemless activation during interactive sessions in a Virtual Image Processing Laboratory environment.

WP 11: Grid Applications for Earth Observation Systems ApplicationThe activities of CPS-CNR in this WP are devoted to the development of a Grid advanced application in the fields of meteorology and of atmospheric pollution monitoring. The spatial domain is Southern Italy and the main computational infrastructure nodes are Naples and Lecce.

53

In WP 11, the activities of ISI-CNR are aimed at the integration of a parallel landslides simulation application in the computational grid infrastructure with the possibility to retrieve morphologic and hyper-spectral data before and after the subject to landslides event from accessible sites on the grid.

1.2 Responsabile Scientifico dell'Unità di Ricerca MURLI  ALMERICO  MRLLRC36R28F839U 

(cognome)   (nome)   (CF)  

Professore Ordinario  MAT/08  28/10/1936 

(qualifica)   (settore)   (data di nascita)  

Consiglio nazionale delle ricerche (CNR) 

Centro di Ricerche per il Calcolo Parallelo e i Supercalcolatori - CPS 

Direttore 

(Istituzione di appartenenza)(art.5, c.1, DM citato)  

(Dipartimento/Istituto/Divisione/Settore)   (posizione)  

081675636  081675636  [email protected] 

(prefisso e telefono)   (numero fax)   (indirizzo posta elettronica)  

Referenza Cognome MESSINA Nome PAUL Email [email protected] Istituzione CALTECH 

1.3 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca

L'attività scientifica del prof. A. Murli si colloca nell'ambito della Matematica Computazionale e più in generale del Calcolo Scientifico ed è rivolta all'analisi ed allo sviluppo di metodi e algoritmi per la risoluzione di problemi scientifici mediante l'uso di strumenti computazionali, con particolare riguardo allo studio dei problemi legati all'influenza dell'ambiente di elaborazione sullo sviluppo degli algoritmi e del relativo software.L'attività scientifica suddetta è stata sempre svolta attraverso collaborazioni internazionali e interagendo con ricercatori di diversa nazionalità ed estrazione culturale.Nel 1984 A. Murli è stato "visiting professor" presso la Divisione di "Mathematics and Computer Science" dell'"Argonne National Laboratory" dell'Università di Chicago. Egli è attualmente Direttore del Centro di Ricerche per il Calcolo Parallelo e Supercalcolatori (CPS-CNR) ed è leader di vari progetti di software matematico e di "Computational Science".

The scientific activity of Almerico Murli is in the field of Computational Mathematics and, more generally, of Scientific Computing. It is aimed at the analysis and development of numerical methods for solution of scientific problems by computational tools, focusing on the influence of the computational environment on the development of numerical algorithms and corresponding mathematical software. This research activity has been carried out through national and international collaborations, interacting with researchers of different nationality and expertise.In 1984 A. Murli was visiting professor at the Mathematics and Computer Science Division of the Argonne National Laboratory of the University of Chicago.Presently, he is the Director of the Center for Research on Parallel Computing and Supercomputers (CPS-CNR) and is leader of many projects on mathematical software and computational science.

54

1.4 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca nº Pubblicazione1. MURLI A.; D'AMBRA P.; D'AMORE L. (2000). Parallel Computation and Problem Solving

Methodologies: A View from Some ExperiencesIn D. TRIGIANTE ED. Recent Trends in Numerical Analysis. pp. 249-268 Serie. NEW YORK: NOVA Science (UNITED STATES)  

2. DI SERAFINO D.; MADDALENA L.; MESSINA P.; MURLI A. (1998). SOME PERSPECTIVES ON HIGH - PERFORMANCE MATHEMATICAL SOFTWARE HIGH PERFORMANCE ALGORITHMS AND SOFTWARE IN NONLINEAR OPTIMIZATION. (pp. 1-23) ISSN: 0-7923-5483-4 Kluwer Academic Publisher.  

3. DI SERAFINO D.; MADDALENA L.; MURLI A. (1997). PINEAPL: A European Project to develop a Parallel Numerical Library for Industrial Applications Euro-Par'97. pp. 1333-1339 in Lecture Notes in Computer Science, Springer.  

4. D'AMORE L.; LACCETTI G.; MURLI A. (1999). An Implementation of a Fourier Series Method for the Numerical Inversion of Laplace Transform ACM TRANSACTIONS ON MATHEMATICAL SOFTWARE. (vol. 25 (3) pp. 279-305)  

5. MURLI A.; CECCARELLI M.; D'AMORE L.; DE SIMONE V. (1999). Numerical Methods for Total Variation-based Deblurring: A Comparison in a Parallel Environment Large Scale Scientific Computations of Engineering and Environmental Problems. vol. 73 pp. 257-264 in Notes on Numerical Fluid Mechanics, Vieweg.  

1.4.a Titoli scientifici più significativi del Responsabile Scientifico dell'Unità di Ricerca

Almerico Murli è stato membro del Consiglio Scientifico di vari enti ed organi, tra i quali il Gruppo Nazionale di Informatica Matematica (GNIM) del CNR, fin dalla sua costituzione (1975), ed il Progetto Finalizzato CNR "Sistemi Informatici e Calcolo Parallelo", dal 1988 alla sua conclusione.Dal 1995 è membro del Consiglio Direttivo della Società Italiana di Matematica Applicata e Industriale (SIMAI). E' inoltre membro dell'Editorial Board della rivista "Ricerche di Matematica". E' infine socio della "Society for Industrial and Applied Mathematics" (SIAM).

Ha progettato e organizzato vari convegni i cui atti sono stati pubblicati da case editrici di rilievo internazionale:

1) P.C. Messina, A. Murli, Problems and Methodologies in Mathematical Software Production, Lecture Notes in Computer Science, Springer Verlag, 1982.2) P.C. Messina, A. Murli, Practical Parallel Computing: Status and Prospects, Concurrency: Practice and Experience, N. 6 (Special Issue), John Wiley, 1991.3) P.C. Messina, A. Murli, Parallel Computing: Problems, Methods and Applications, Elsevier, 1992.4) M. Morelli, A. Murli, La Matematica per una Nuova Industria, Etaslibri, 1994.5) A. Murli, G. Toraldo, Computational Optimization and Applications, Vol. 7, Special Issue, Kluwer Academic Publisher, 1997.6) R. De Leone, A. Murli, P. Pardalos, G. Toraldo, Computational Issues in High Performance Software for Nonlinear Optimization, Kluwer Academic Publisher, 1998.

Almerico Murli has been a member of the Scientific Committee of many organizations, including "Gruppo Nazionale di Informatica Matematica (GNIM)" of CNR, since its starting (1975), and "Progetto Finalizzato CNR Sistemi Informatici e Calcolo Parallelo", from 1988 to its conclusion.Since 1995 he is a member of the Steering Committee of the

55

"Società Italiana di Matematica Applicata e Industriale" (SIMAI - Italian Society for Industrial and Applied Mathematics). He is also a member of the Editorial Board of the journal "Ricerche di Matematica". Finally, he is a member of the "Society for Industrial and Applied Mathematics" (SIAM).

He organized many conferences, with internationally published proceedings:

1) P.C. Messina, A. Murli, Problems and Methodologies in Mathematical Software Production,Lecture Notes in Computer Science, Springer Verlag, 1982.2) P.C. Messina, A. Murli, Practical Parallel Computing: Status and Prospects, Concurrency: Practice and Experience, N. 6 (Special Issue), John Wiley, 1991.3) P.C. Messina, A. Murli, Parallel Computing: Problems, Methods and Applications, Elsevier, 1992.4) M. Morelli, A. Murli, La Matematica per una Nuova Industria, Etaslibri, 1994.5) A. Murli, G. Toraldo, Computational Optimization and Applications, Vol. 7, Special Issue, Kluwer Academic Publisher, 1997.6) R. De Leone, A. Murli, P. Pardalos, G. Toraldo, Computational Issues in High Performance Software for Nonlinear Optimization, Kluwer Academic Publisher, 1998.

1.5 Risorse umane da impegnare nelle attività dell'Unità di Ricerca

1.5.1 Personale dipendente dell'Istituzione, sede dell'Unità di ricerca nº Cognome Nome Dipartimento/

Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo

Costo (ML)

1. Basta  Stefano  ISI-CNR  Ricercatore (R0) 

ING-INF/05 9  57 (29.44 KEuro) 

2. Cannataro  Mario  ISI-CNR  Ricercatore (R0) 

ING-INF/05 9  57 (29.44 KEuro) 

3. D'Ambra  Pasqua  CPS-CNR Napoli  Ricercatore (R0) 

MAT/08  6  38 (19.63 KEuro) 

4. Da  Definire  ISI-CNR  Assegnista    15  41 (21.17 KEuro) 

5. Da  Definire  ISI-CNR  Assegnista    15  41 (21.17 KEuro) 

6. Da  Definire  Deis-Unical  Assegnista    15  34 (17.56 KEuro) 

7. De Pietro  Giuseppe  CPS-CNR  Ricercatore (R0) 

ING-INF/05 4  25 (12.91 KEuro) 

8. Della Vecchia 

Gennaro  CPS-CNR  Ricercatore (R0) 

ING-INF/05 4  25 (12.91 KEuro) 

9. Di Fatta  Giuseppe  CERE-CNR  Ricercatore (R0) 

ING-INF/05 3  19 (9.81 KEuro) 

10. Draoli  Mauro  SRT-CNR  Tecnologo (III) 

  3  21 (10.85 KEuro) 

11. Ercoli  Danilo  CED-CNR  CTER(VI)    6  33 (17.04 KEuro) 

12. Folino  Gianluigi  ISI-CNR  Ricercatore (R0) 

ING-INF/05 9  57 (29.44 KEuro) 

13. Galbisso  Carlo  IASI-CNR  Ricercatore (R0) 

  3  23 (11.88 KEuro) 

14. Guarracino Mario Rosario  CPS-CNR Napoli  Ricercatore (R0) 

INF/01  6  38 (19.63 KEuro) 

15. Lancia  Maurizio  CED-CNR  Dirigente Tecnologo 

  3  39 (20.14 KEuro) 

16. Lo Re  Giuseppe  CERE-CNR  Ricercatore   3  24 

56

(R1)  (12.39 KEuro) 

17. Lodato  Ino  CERE-CNR Palermo 

Ricercatore (R0) 

ING-INF/05 6  46 (23.76 KEuro) 

18. Lopes  Toti  CERE-CNR Palermo 

Ricercatore (R0) 

ING-INF 05 

6  46 (23.76 KEuro) 

19. Machì  Alberto  IFCAI-CNR Palermo 

Ricercatore (R0) 

INF/01  6  54 (27.89 KEuro) 

20. Maddalena Lucia  CPS-CNR Napoli  Ricercatore (R0) 

MAT/08  6  38 (19.63 KEuro) 

21. Manco  Giuseppe  ISI-CNR  Ricercatore (R0) 

ING-INF/05 9  57 (29.44 KEuro) 

22. Marchetti  Alessio  CED-CNR  Dirigente Tecnologo (I) 

  6  71 (36.67 KEuro) 

23. Marra  Ivana  CPS-CNR  Tecnologo    4  25 (12.91 KEuro) 

24. Mascari  Gianfranco  IAC-CNR  Ricercatore (R0) 

  6  49 (25.31 KEuro) 

25. Mattiello  Raffaele  CPS-CNR Napoli  Tecnico    3  16 (8.26 KEuro) 

26. Montella  Raffaele  CPS-CNR Napoli  Dottorando    8  30 (15.49 KEuro) 

27. Murli  Almerico  CPS-CNR Napoli  Prof. Ordinario 

MAT/08  3  44 (22.72 KEuro) 

28. Nicotra  Filippo  IFCAI-CNR Palermo 

STER VII  INF/01  5  30 (15.49 KEuro) 

29. Petrosino  Alfredo  CPS-CNR Napoli  Ricercatore (R0) 

INF/01  6  38 (19.63 KEuro) 

30. Pizzuti  Clara  ISI-CNR  Ricercatore (R0) 

ING-INF 05 

9  57 (29.44 KEuro) 

31. Pontieri  Luigi  ISI-CNR  Ricercatore (R0) 

ING-INF 05 

9  57 (29.44 KEuro) 

32. Pugliese  Andrea  ISI-CNR, Unical  Dottorando  ING-INF 05 

15  33 (17.04 KEuro) 

33. Rispoli  Maria  CPS-CNR Napoli  Tecnico    3  16 (8.26 KEuro) 

34. Simeoli  Enrico  CED-CNR  CTER(VI)    4  24 (12.39 KEuro) 

35. Spezzano  Giandomenico ISI-CNR  Ricercatore (R1) 

ING-INF 05 

9  73 (37.70 KEuro) 

36. Tripiciano  Mario  IFCAI-CNR Palermo 

Ricercatore (R0) 

INF/01  3  23 (11.88 KEuro) 

37. Vitale  Maurizio  SRT-CNR  Tecnologo (III) 

  8  56 (28.92 KEuro) 

38. da  definire  CPS-CNR Napoli  Tecnologo    6  45 (23.24 KEuro) 

                 253  1500 (774.69 KEuro) 

57

1.5.2 Personale dipendente di Istituzioni non partecipanti come Unità di Ricerca

nº Cognome Nome Istituzione Dipartimento/Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo

Costo (ML)

1. Antonelli  Laura  Unina  Dipartimento di Matematica e Applicazioni Uni. Napoli 

Dottorando  MAT/08  9  36 (18.59 KEuro) 

2. Auricchio  Ferdinando 

Unipv  Dip. Meccanica Strutturale 

Prof. Ordinario 

  3  45 (23.24 KEuro) 

3. Barone  Guido  Unina  Dipartimento di Chimica 

Prof. Ordinario 

  3  44 (22.72 KEuro) 

4. Beraldi  Patrizia  Unical  Deis  Ricercatore MAT/09  3  14 (7.23 KEuro) 

5. Bertero  Mario  Unige  Disi  Prof. Ordinario 

INF/01  3  44 (22.72 KEuro) 

6. Bisegna  Paolo  Unirm2  Ing. delle Strutture 

Prof. Ordinario 

  3  45 (23.24 KEuro) 

7. Boccacci  Patrizia  Unige  Disi  Ricercatore  INF/01  3  21 (10.85 KEuro) 

8. Ceccarelli Michele  Unisannio  Facoltà di Scienze 

Ricercatore  INF/01  4  26 (13.43 KEuro) 

9. Conforti  Domenico  Unical  Deis  Prof. Associato 

MAT/09  5  41 (21.17 KEuro) 

10.

Cuomo  Salvatore  Unina  Dipartimento di Matematica e Applicazioni 

Dottorando  MAT/08  9  36 (18.59 KEuro) 

11.

D'Amore  Luisa  Unina  Dipartimento di Matematica e Applicazioni 

Ricercatore MAT/08  6  42 (21.69 KEuro) 

12.

Di Serafino 

Daniela  Unina2  Dipartimento di Matematica 

Ricercatore MAT/08  6  42 (21.69 KEuro) 

13.

Filippone  Salvatore  Unirm Tor Vergata 

Centro di Calcolo e Documentazione 

Funzionario Tecnico 

  4  24 (12.39 KEuro) 

14.

Flesca  Sergio  Unical  Deis  Ricercatore    9  64 (33.05 KEuro) 

15.

Formiconi Andreas  Unifi  DFC  Ricercatore    3  21 (10.85 KEuro) 

16.

Giunta  Giulio  Uni Parthenope 

Dipartimento di Matematica, Fisica e Applicazioni 

Prof. Ordinario 

MAT/08  3  43 (22.21 KEuro) 

17.

Grandinetti 

Lucio  Unical  Deis  Prof. Ordinario 

MAT/09  3  44 (22.72 KEuro) 

18.

Greco  Sergio  Unical  Deis  Prof. Straordinari

  9  132 (68.17 KEuro) 

58

o 19.

Gregoretti Francesco Unina  Dipartimento di Matematica e Applicazioni 

Dottorando  INF/01  9  36 (18.59 KEuro) 

20.

Guerriero  Francesca Unical  Deis  Ricercatore MAT/09  3  13 (6.71 KEuro) 

21.

Laccetti  Giuliano  Unina  Dipartimento di Matematica e Applicazioni 

Prof. Associato 

INF/01  4  41 (21.17 KEuro) 

22.

Lapegna  Marco  Unina  Dipartimento di Matematica e Applicazioni 

Ricercatore MAT/08  5  36 (18.59 KEuro) 

23.

Maceri  Franco  Unirm2  Ing. delle Strutture 

Prof. Ordinario 

ICAR/08  3  45 (23.24 KEuro) 

24.

Marino  Zelda  Unina  Dipartimento di Matematica e Applicazioni 

Dottorando  MAT/08  9  36 (18.59 KEuro) 

25.

Martelli  Maurizio  Unige  Disi  Prof. Ordinario 

INF/01  3  44 (22.72 KEuro) 

26.

Melideo  Giovanna  UniAq  Disi  assegnista    1  1 (0.52 KEuro) 

27.

Nardelli  Enrico  UNIAQ  Dip. di Matematica Pura ed Applicata 

Prof. Ordinario 

  1  1 (0.52 KEuro) 

28.

Oliva  Gennaro  Unina  Dipartimento di Matematica e Applicazioni 

Dottorando  INF/01  9  36 (18.59 KEuro) 

29.

Pisani  Vladimiro  Unical  Deis  Tecnico Scientifico 

  3  18 (9.30 KEuro) 

30.

Poleggi  Marco Emilio 

Unirm Tor Vergata 

Dip. di Informatica Sistemi e Produzione 

Dottorando  ING-INF/05 

3  12 (6.20 KEuro) 

31.

Proietti  Guido  UniAq  Disi  Prof. Associato 

  1  1 (0.52 KEuro) 

32.

Pupi  Alberto  Unifi  DFC  Prof. Ordinario 

  3  44 (22.72 KEuro) 

33.

Riccio  Angelo  Uni. Parthenope 

Dipartimento di Matematica, Fisica e Applicazioni 

Ricercatore    8  56 (28.92 KEuro) 

34.

Rodriguez Guido  Unige  Dimi  Prof. Associato 

  3  31 (16.01 KEuro) 

35.

Saccà  Domenico  Unical  Deis  Prof. Ordinario 

  2  29 (14.98 KEuro) 

36.

Scarcello  Francesco Unical  Deis  Prof. Associato 

  9  92 (47.51 KEuro) 

37.

Talamo  Maurizio  Unirm2  Dip. di Informatica e Sistemistica 

Prof. Ordinario 

ING-INF/05 

1  1 (0.52 KEuro) 

38.

Talia  Domenico  Unical  Deis  Prof. Straordinario 

INF/01  9  131 (67.66 KEuro) 

39.

Tocchetti  Federico Alberto 

Unirm2 Tor Vergata 

Ing. delle Strutture 

Dottorando    3  12 (6.20 KEuro) 

59

40.

Vairo  Giuseppe  Unirm2  Ing. delle Strutture 

Dottorando    3  12 (6.20 KEuro) 

41.

Zanini  Chiara  Unical  Deis  Tecnico Scientifico 

  2  8 (4.13 KEuro) 

                    185  1500 (774.69 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.2 SI

1.5.3 Titolari di assegni di ricerca (Riservato alle Strutture Universitarie) 

1.5.4 Titolari di borse di studio, borse per Dottorati di Ricerca e ex L. 398/89 art.4 (post-dottorato e specializzazione) (Riservato alle Strutture Universitarie) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

nº Qualifica Tipologia Mesi/uomo Costo (ML)1. borsista  Contr. triennale per giov. ricerc.   33  180 

(92.96 KEuro) 2. borsista  Contr. triennale per giov. ricerc.   33  180 

(92.96 KEuro) 

3. borsista  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

4. borsista  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

5. borsista  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

6. borsista  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

7. borsista  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

8. borsista  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

9. borsista  Contr. triennale per giov. ricerc.   33  60 (30.99 KEuro) 

        297  1.500 (774.69 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali nº Cognome Nome Istituzione Nazione Qualifica Mesi/uomo Costo (ML)                 0  0 

(0.00 KEuro) 

60

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.6: SI

61

1.5.7 Mesi uomo complessivi dedicati alle attività proposte   Numero Mesi/uomo Costo (ML) Spese stages e

missioni all'esteroMLit (K€)

1.5.1 Personale dipendente dell'Istituzione sede dell'Unità di Ricerca

38  253  1500 (774.69 KEuro) 

150 (77.47 KEuro) 

1.5.2 Personale dipendente di Istituzioni nazionali non partecipanti come Unità di Ricerca

41  185  1500 (774.69 KEuro) 

150 (77.47 KEuro) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

9  297  1500 (774.69 KEuro) 

150 (77.47 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali

0  0  0 (0.00 KEuro) 

0 (0.00 KEuro) 

TOTALE 88  735  4500 (2324.06 KEuro) 

450 (232.41 KEuro) 

1.6 Descrizione delle attrezzature già disponibili ed utilizzabili per la ricerca proposta

Anno di acquisizione

Descrizione

1. 1997   multicomputer classe Beowulf con 16 nodi

Beowulf class multicomputer - 16 nodes  2. 1999   multicomputer classe Beowulf con 32 nodi

Beowulf class multicomputer - 32 nodes  3. 1999   sistema multicomputer IBM SP con 24 processori

IBM SP multicomputer system - 24 processors  4. 2001   multicomputer classe Beowulf con 16 nodi

Beowulf class multicomputer - 16 nodes  5. 2001   multicomputer classe Beowulf con 16 nodi

Beowulf class multicomputer - 16 nodes  

1.7.a Descrizione delle strumentazioni, attrezzature e prodotti software da acquisire

nº Descrizione Valore presunto (MLit) Percentuale di utilizzoper le attività proposte

     0 (0.00 KEuro) 

  

1.7.b Descrizione delle grandi attrezzature da acquisire nº Descrizione Valore presunto (MLit) Percentuale di utilizzo

per le attività proposte     0    

62

(0.00 KEuro) 

1.8 Spese complessive dell'Unità di Ricerca Voce di spesa (DM. 199 Ric. del 08/03/01; art.6, c.6)  Spesa (MLit) NoteSpese di personale (*) 3.000 

(1549.37 KEuro) Spese personale 

Spese generali direttamente imputabili all'attività di ricerca nella misura forfettizzata del 60% del costo del personale (compreso quello relativo ai ricercatori)

2.700 (1394.43 KEuro) 

60% di tutte le spese 

Spese per giovani ricercatori e ricercatori di chiara fama internazionale

1.500 (774.69 KEuro) 

Contratti giovani ricercatori 

Spese per l'acquisizione di strumentazioni, attrezzature e prodotti software, limitatamente alle quote impiegate per lo svolgimento dell'attività oggetto del progetto

0 (0.00 KEuro) 

non previste 

Spese per stages e missioni all'estero di ricercatori coinvolti nel progetto

450 (232.41 KEuro) 

Missioni e stage 

Costo dei servizi di consulenza e simili utilizzati per l'attività di ricerca

900 (464.81 KEuro) 

Consulenze ad personam e servizi di consulenza 

Altri costi di esercizio (ad es. costo dei materiali, delle forniture e dei prodotti analoghi) direttamente imputabili all'attività di ricerca

0 (0.00 KEuro) 

non previste 

TOTALE 8.550 (4415.71 KEuro) 

  

(*) = ricercatori, tecnici ed altro personale adibito all'attività di ricerca, dipendente dal soggetto proponente e/o in rapporto subordinato a termine e/o di collaborazione coordinata e continuativa, ivi inclusi dottorati, assegni di ricerca e le borse di studio che prevedevano attività di formazione attraverso la partecipazione al progetto.Incidenza (in %) del costo della UR sul costo totale della proposta progettuale 19 

  MLitCosto complessivo delle attività previste dalla Proposta progettuale per l'Unità di Ricerca 8.550 

(4415.71 KEuro) Fondi disponibili (RD) 3000 

(1549.37 KEuro) 

Fondi acquisibili (RA) 0 (0.00 KEuro) 

Finanziamento richiesto al MIUR 4.050 (2091.65 KEuro) 

Finanziamento del MIUR per i contratti triennali 1.500 (774.69 KEuro) 

1.9 Risorse finanziarie già disponibili all'atto della domanda e utilizzabili a sostegno della Proposta ProgettualeQUADRO RD

Provenienza  Anno di assegnazione

Importo disponibile (MLit)

Note

Propri (*) 2000  3000 (1549.37 KEuro) 

Risorse disponibili dell'unità di ricerca. 

63

Pubbliche Amministrazioni      

EPR (Enti Pubblici di Ricerca)

     

Unione Europea      Imprese      

Fondazioni      Altro (vedi 1.10)      

TOTALE    3000 (1549.37 KEuro) 

  

(*) = ad esempio stipendi, assegni di ricerca, borse di studio, dottorati di ricerca, post-dottorato e specializzazione

1.10 Risorse finanziarie acquisibili in data successiva a quella della domanda e utilizzabili a sostegno della Proposta Progettuale nell'ambito della durata previstaQUADRO RA

Provenienza  Anno della domanda o stipula del contratto

Stato di approvazione

Quota disponibile per il programma (MLit)

Note

Propri (ad es. stipendi)        Pubbliche Amministrazioni

       

EPR (Enti Pubblici di Ricerca)

       

Unione Europea        

Imprese        Fondazioni        

Altro (vedi 1.10)        TOTALE       0 

(0.00 KEuro)   

1.13 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di cui ai punti 1.9 e 1.10: SI  

64

Unità di Ricerca n. 4

1.1 Descrizione della struttura e dei compiti dell'Unità di Ricerca

L’Istituto Nazionale di Fisica Nucleare (INFN) è un ente di ricerca pubblico, che promuove, coordina e finanzia ricerche di fisica nucleare e delle alte energie. E’ organizzato in· 4 Laboratori Nazionali: Frascati, Gran Sasso, Legnaro, SUD (Catania). · 19 Sezioni pienamente integrate presso i dipartimenti di fisica delle maggiori Università: Bari, Bologna, Cagliari, Catania, Ferrara, Firenze, Genova, Lecce, Milano, Napoli, Padova, Pavia, Perugia, Pisa, Roma, Roma II, Roma III, Torino, Trieste. · 11 Gruppi collegati· 1 Centro Nazionale: CNAF (Bologna). · 1 Amministrazione centrale a Frascati. · 1 Ufficio di Presidenza a Roma.L’INFN svolge le sue attività nell’ambito di collaborazioni internazionali. Gli esperimenti sono realizzati nei più importatni Laboratori nazionali e internazionali (CERN a Ginevra, DESY ad Amburgo, Grenoble, Gran Sasso, Frascati, Fermilab a Chicago e SLAC a S.Francisco)L’INFN è uno dei membri fondatori del GARR (Gruppo Armonizzazione Reti della Ricerca) e attualmente e’incaricato della realizzazione del progetto GARR-B, la rete italiana della ricerca basato su un backbone a 622Mbps a tecnologia ATM. A partire dal 1998, l’INFN ha pianificato, sperimentato e poi messo in produzione su Wide Area Network un dominio di Condor con oltre 200 nodi distribuiti su tutto il territorio nazionale. Dall’Ottobre 1999 l’INFN ha dato vita ad un progetto pilota in collaborazione con il gruppo di Globus per investigare una possible utilizzazione del software GLOBUS nella Fisica delle Alte Energie. L’INFN partecipa come partner principale ai progetti internzionali DataGRID e DataTAG, finanziati dalla Comunità Europea e al comitato di coordinamento Intergrid tra Europa, USA e ASIA.L’attivita’ dell’Unità di Ricerca INFN é’organizzata in 5 workpackages:WP3 – Implementazioni di servizi GRID WP5 - Servizi Fondamentali Data Intensive WP10 - Applicazioni di GRID all’AstrofisicaWP12 - Applicazioni di GRID alla BiologiaWP14 - Applicazioni di GRID alla GeofisicaImplementazione di servizi di GRID WP3 L’obiettivo è quello di offrire un ambiente grid di produzione per mezzo di applicazioni reali con dati reali presi dalla Biologia, Astrofisica, Osservazione della Terra, Geofisica e Vulcanologia. In Fisica delle Alte Energie questi servizi sono sviluppati nell’ambito di progetti Grid europei e americaniI requisiti tecnici di queste applicazioni comprendono il supporto per hardware e sistemi operativi dedicati e l’accesso trasparente a dati distribuiti e archivi dedicatiL’implementazione di grid non deve solo offrire un ambiente dimostrativo ma anche uno strumento di produzione per applicazioni reali con dati realiQuesto workpackage è composto dalle seguenti attività:3.1 Definizione dei bisogni degli utenti3.2 Definizione del progetto di grid3.3 Sviluppo e adattamento dei servizi di grid3.4 Integrazione dei servizi di grid3.5 Implementazione e test della grid

Servizi di base Data intensive, WP5Lo scopo di questo WP è quello di specificare, sviluppate, integrare e testare nuovi strumenti e servizi di “middleware” per gestire grandi quantità di dati in un ambiente di grid di produzione molto eterogeneo, ad alte prestazione ed elevato throughput.I servizi di base saranno sviluppati principalmente per i settori applicativi di Astrofisica, la Geofisica, Osservazione della Terra e BiologiaQuesto WP è composto dalle seguenti attività:5.1: raccolta delle richieste delle applicazioni.

65

5.2: valutazione di software esistente per trasferimento veloce di file ed accesso frequente ad base di dati eterogenee. Di particolare interesse sono gli aspetti di sicurezza per l’accesso a database privati (criptazione), rigoroso controllo degli accessi, interfaccia uniforme a base di dati di formato diverso e tempi di risposta.5.3: adattamenti di software esistente e sviluppo di nuovi prodotti saranno programmati e pubblicati regolarmente.

Applicazioni di GRID all’Astrofisica WP10Il Workpackage 10 (Astrofisica – INAF) ha come scopo la realizzazione di tre dimostratori che provino la fattibilita` del porting di applicativi di intreresse astrofisico nella struttura di una Grid nazionale. Il prodotto previsto dal progetto e` un prototipo di ambiente multi-funzionale distribuito da fornire alla comunita` scientifica e che permetta l’utilizzo di nodi specializzati (osservativi, computazionali, d’archivio) della Grid. Si prevede che il know-how acquisito nel corso del progetto venga trasferito alla comunita` astronomica nazionale. E` inoltre possibile come ricaduta un’azione di spin-off di piccole aziende software inizializzate dai giovani informatici che saranno coinvolti nel progetto. Si intende strutturare il lavoro di realizzazione dei tre dimostratori nei seguenti sotto-pacchetti:10.1 – Raccolta di requisiti dettagliati per le applicazioni (mesi 1-6)10.2 – Installazione delle utility di Grid e progetto dell’architettura del sistema (mesi 7-12)10.3 – Sviluppo degli strumenti adattati a Grid (mesi 13-22)10.4 – Test e validazione dei concetti (mesi 23-25)10.5 – Installazione delle utility di Grid (II versione) e revisione dell’architettura del sistema (mesi 23-27)10.6 – Sviluppo della II versione degli strumenti adattati a Grid (mesi 28-33)10.7 – Test finali e validazione dei concetti e delle soluzioni sviluppate (mesi 34-36)

Applicazioni di GRID alla Biologia WP12Attivita':12.1 Per quanto riguarda la bioinformatica, l’obiettivo principale è l’immersione in Griglia di un piccolo arsenale di strumenti di software relativi a due domini correlati:(1)l’analisi di sequenze (ricerca di geni, analisi statistiche, allineamenti e ricerca di correlazioni in sequenze);(2)l’analisi e sintesi di proteine e di altri aggregati tridimensionali, con enfasi particolare sugli aspetti di visualizzazione. 12.2 Nel settore della Neuroinformatica la ricerca si propone di verificare le potenzialità del GRID nella diagnostica neurologica, distribuendo su GRID diversi livelli di applicazione: (1)accesso a banche dati distribuite di immagini tomografiche, proteomiche, e di sequenze genomiche: (2)prestazioni computazionali su modelli complessi a livello genico-metabolico e cellulare che consentano la definizione ultima del prodotto genico con funzioni di drug-design.

Applicazioni di GRID alla Geofisica WP14Questo workpackage del Progetto si prefigge di: (a) sviluppare strumenti di griglia per le simulazioni numeriche, (b) immergere in griglia un arete remota di sensori. Comprende le seguenti attivita’:14.1 Simulazioni numeriche in geofisica (INGV Bologna e Roma)L’obbiettivo principale sara’ quindi l’implementazione di una infrastruttura di griglia per i gruppi coinvolti (Bologna, Roma, Napoli) che consenta la gestione remota di risorse di calcolo, selezione di piattaforme (secondo l’architattura, vettore/scalare, e secondo le politiche di gestione, alta/bassa priorita e a tempo dedicato); Storage (metastorage e gestione delle risorse di disco/librerie distribuite)14.2 Reti remote di sensori in Geofisica e Vulcanologia (INGV Osservatorio Vesuviano, Napoli)E' prevista l'integrazione nella grglia della rete di rilevatori distribuiti sul territorio per il monitoraggio dei parametri sismici, di deformazione del suolo e chimico-fisici. L'integrazione sarà realizzata tramite il diretto interfacciamento delle reti di rilevatori (geofoni, rilevatori clinometrici, chimci fisici, etc..) al sistema informatico INGV-GRID, in modo da consentire il controllo dictribuito dei sistemi remoti di rilevazione e l'accesso diretto ai dati in acquisizione.

The Italian National Institute for Nuclear Research, INFN, is a governmental research organization, which promotes, co-ordinates and funds nuclear and high-energy physics research. It is organised in:· 4 National Laboratories: Frascati, Gran Sasso, Legnaro, SUD (Catania). · 19 Sections fully integrated in the Physics departments of the major Universities: Bari, Bologna, Cagliari, Catania, Ferrara, Firenze, Genova, Lecce, Milano, Napoli, Padova, Pavia, Perugia, Pisa, Roma, Roma II, Roma III, Torino, Trieste. · 11 Sub-sections: Brescia, Cosenza, L’Aquila, Messina, Parma, Sanità (Roma), Salerno, Siena, Trento, Verona, Udine.

66

· 1 National Center: CNAF (Bologna). · 1 Central Administration site in Frascati. · 1 President Operational Bureau in Roma. INFN carries out its activity within international collaborations. The experiments are developed in the most important national and international Laboratories (CERN, DESY, Grenoble, GranSasso, Frascati, Fermilab, SLAC).INFN is one of the founding members of GARR, the Italian academic and research network. In 1988 INFN developed, in collaboration with Digital, one of the first example of commercial workstation cluster used for the real production of the DELPHI experiment at CERN .Since 1998 INFN started deploying a Wide Area CONDOR Pool using more than 200 CPUs distributed all over Italy. From October 1999 INFN started a pilot project in collaboration with the Globus team, to investigate a possible utilization of GLOBUS software for the High Energy Physics applications. INFN is one of the main partners who have initiated the international EU funded DataGRID and DataTAG projects and the Intergrid EU-US and ASIA Coordination Board.

The activity of the INFN UR is organized in the five workpackages described below. The first two belongs to the middleware area while the others three belongs to the area 4 (Applications Demonstrators).

WP3 - GRID services deployment WP5 – Data Intensive Core ServicesWP10 - GRID Applications for AstrophysicsWP12 - GRID Applications for BiologyWP14 - GRID Applications for Geophysics

Grid services deployment, Workpackage 3The goal is to provide a production quality grid environment using real-word applications with real data drawn primarily from Biology, Astrophysics, Earth Observation, Geophysics and Vulcanology. In High Energy Physics these services are mainly being developed in EU and US Grid projects. Technical requirements that have to be met for these applications include dedicated hardware and operating systems support, frequently update of databases, transparent access to distributed data objects and dedicated archives.In addition to providing a demonstration environment, the GRID deployment must be operated as a production facility for real applications with real data.This workpackage is composed by the following tasks:3.1 Workpackage requirements definition3.2 Grid project definition3.3 Grid services development and adaptation3.4 Grid services packaging and integration3.5 Grid deployment and validation

Data Intensive Core Services, Workpackage 5

The goal of this work package is to specify, develop, integrate and test new tools and middleware services to manage large amount of data in a highly heterogeneous, high performance and high-throughput production quality grid environment.The data intensive core services will be mainly developed for Astrophysics, Geophysics, Earth Observation and Biology application sector.This WP is composed by the following tasks:5.1: requirements gathering from above applications.5.2: evaluation of existing software for fast file transfer and heterogeneous and frequent database access. Security and accounting issues will be addressed. In particular those concerned with private databases security (encryption), strictly controlled access, uniform interface to different databases formats and response time.5.3: Existing software adaptation or the development of new packages will be planned and regularly released.

GRID Applications for Astrophysics, Workpackage 10

The purpose of Workpackage 10 (Astrophysics – INAF) is the implementation of three demonstrators showing the feasibility of porting three basic “killer” astrophysical applications in the framework of a national Grid structure. The foreseen product of the project is a prototype of a multi-function environment to be provided to scientists and allowing the exploitation of specialized nodes (observational, computational, archival) of the Grid. The know-how acquired during the project is foreseen to be shared within the national

67

astronomical community. A spin-off action on small software companies initialized by the young computer scientists to be involved in this project is another possible fall-out of this proposal. We plan to structure the work of building the three demonstrators in the following sub-workpackages:10.1 – Gathering of detailed requirements for the applications (months 1-6)10.2 – Deployment of Grid tools and design of the system architecture (months 7-12)10.3 – Development of prototype Grid-enabled tools (months 13-22)10.4 – Testing and validation of concepts (months 23-25)10.5 – Deployment of second version of Grid tools and revision of the system architecture (months 23-27)10.6 – Development of second version of Grid-enabled tools (months 28-33)

GRID Applications for Biology Workpackage 12Tasks:12.1 For what it concerns bioinformatics, the main goal is the porting on the GRID of a number of software tools for two related domains: (1) analysis of sequences (research on genes, statistical analysis, alignment and correlations of sequences); (2) analysis and synthesis of proteins and other tridimensional aggregages, with particular focus on visualisation and rendering effects.

12.2 In the field of Neuroinformatics, aim of the research is to assess GRID potentials in Neurological diagnostics by distributing on GRID different levels of applications: 1) access to distributed data bases of tomographic, proteomic images and genomic sequences, and 2) computational performances for genic-metabolic and cellular complex models allowing the definition of the genic product with drug-design functions.

GRID Applications for Geophysics Workpackage 14

This workpackage seeks to (a) develop grid applications for geophysical numerical simulations (b) embedding in the Grid a network of geophysical sensors. The result will be a general INGV grid (GEOGRID).

14.1 – Numerical Simulations in geophysics (INGV Bologna e Roma)The main objectives will be the implementation of a grid infrastructure for the research groups involved (Bologna, Roma, Napoli) to obtain the remote management of computational resources, platform selection (architecture, policy, priority) and of storage (metastorage and management of distributed storage facilities).

14.2 Remote network of geophysical sensors (INGV –Osservatorio Vesuviano – Napoli)The network of geophysical sensors will be embedded in the grid. The sensors will monitor seismic parameters, ground deformation, other chemical and physical parameters, etc… The embedding will be ralized by directly interfacing the sensors (geophones, physical and chemical sensors) with the grid applications to allow the remote handling of the specific of the sensor and the direct access to the data.

1.2 Responsabile Scientifico dell'Unità di Ricerca MAZZUCATO  MIRCO  MZZMRC45P13G224F 

(cognome)   (nome)   (CF)  

Dirigente di Ricerca  FIS/04  13/09/1945 

(qualifica)   (settore)   (data di nascita)  

Istituto nazionale di fisica nucleare  INFN sezione di Padova  responsabile UR INFN 

(Istituzione di appartenenza)(art.5, c.1, DM citato)  

(Dipartimento/Istituto/Divisione/Settore)   (posizione)  

0498277053  0498277102  [email protected] 

(prefisso e telefono)   (numero fax)   (indirizzo posta elettronica)  

Referenza

68

Cognome FOSTER Nome IAN Email [email protected] Istituzione University of Chicago 

1.3 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca

Posizione attuale: Dirigente di ricerca INFN

Coordinatore nazionale INFN di diversi esperimenti di Fisica delle Alte Energie al CERN: NA16, NA27 e DELPHI. Project Leader durante la costruzione del rivelatore DELPHI. Membro del consiglio di gestione di DELPHI dal 1993 come coordinatore del calcolo offline. Membro del CERN LHC Computing Review Board dal 1994 al 1996. Presidente del CERN LHC Computing Review Board dal 1996 e membro del comitato di controllo degli esperimenti a LHC (LHCC). Presidente della CNTC dell’INFN,. comitatato che promuove l’introduzione di nuove tecnologie di calcolo nell’INFN dal 1998. Presidente della Commissione Nazionale Calcolo dell’INFN dal 1998Responsabile della gestione della partecipazione INFN ai progetti finanziati dalla comunità europea DataGrid e DataTAG e membro del consiglio di gestione di questi progetti. Responsabile nazionale del progetto speciale INFN Grid. Membro del comitato Intergrid Europa-USA-Asia.

Present position: INFN Director of ResearchINFN national co-ordinator of many HEP experiments based at CERN: NA16, NA27 and DELPHI. Project Leader during the DELPHI construction. Member of the DELPHI Management Board since 1993 as coordinator of the offline computing activity. Member of the CERN LHC Computing Review Board from 1994 to 1996. Chairman of the CERN LHC Computing Committee since 1996 and member of the review committee LHCC. Chairman of the INFN CNTC, the Committee which foster the introduction of the new computing technologies in INFN, since 1998. President of the INFN Computing Committee since 1998.Responsible for the management of the INFN participation to the EU funded projects DataGrid and DataTAG and member of the management board of these projects.National responsible of the special project INFN Grid. Member of the Intergrid EU-US-ASIA Management Board.

1.4 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca nº Pubblicazione1. MAZZUCATO M.; Ugo Amaldi; Daniel Treile; Wilbur Venus; Jean Eudes Augustin; Luc Pape; Gerald

Myatt; Tiziano Camporesi; Jurgen Drees; Jan Timmermans; Ugo Gasparini; Gianni Zumerle (2001). Search for the Standard Model Higgs boson at LEP in the year 2000 PHYSICS LETTERS B. (vol. 499 pp. 23-37)  

2. MAZZUCATO M.; Ugo Amaldi; Jean Eudes Augustin; Jurgen Drees; Ugo Gasparini; Grerald Myatt; Luc Pape; Jan Timmermans; Wilbur Venus; Daniel Treille; Gianni Zumerle; Tiziano Camporesi (2001). Measurement of the Mass and Width of the W Boson in e+e- Collisions at sqrt(s) = 189 GeV PHYSICS LETTERS B. (vol. 511 pp. 159)  

3. MAZZUCATO M.; Ugo Amaldi; Jean Eudes Augustin; Tiziano Camporesi; Jurgen Drees; Ugo Gasparini; Gerald Myatt; Luc Pape; Jan Timmermans; Wilbur Venus; Daniel Treille; Gianni Zumerle (2001). Measurement of V_cb from the decay process AntiB0-> D*+ l- Neutrino PHYSICS LETTERS B. (vol. 510 pp. 55)  

4. MAZZUCATO M.; Ugo Amaldi; Jean Eudes Augustin; Tiziano Camporesi; Jurgen Drees; Ugo

69

Gasparini; Gerald Myatt; Luc Pape; Jan Timmermans; Wilbur Venus; Daniel Treille; Gianni Zumerle (2000). W pair production cross-section and W branching fractions in e+ e- interactions at 189 GeV PHYSICS LETTERS B. (vol. 479 pp. 89)  

5. MAZZUCATO M.; Ugo Amaldi; Jean Eudes Augustin; Tiziano Camporesi; Jurgen Drees; Ugo Gasparini; Gerald Myatt; Luc Pape; Jan Timmermans; Wilbur Venus; Daniel Treille; Gianni Zumerle (2000). Determination of V_ub/V_cb with DELPHI at LEP PHYSICS LETTERS B. (vol. 478 pp. 14)  

1.4.a Titoli scientifici più significativi del Responsabile Scientifico dell'Unità di Ricerca

Coordinatore nazionale INFN di diversi esperimenti di Fisica delle Alte Energie al CERN: NA16, NA27 e DELPHI. Project Leader durante la costruzione del rivelatore DELPHI. Membro del consiglio di gestione di DELPHI dal 1993 come coordinatore del calcolo offline. Membro del CERN LHC Computing Review Board dal 1994 al 1996. Presidente del CERN LHC Computing Review Board dal 1996 e membro del comitato di controllo degli esperimenti a LHC (LHCC). Presidente della CNTC dell’INFN, comitatato che promuove l’introduzione di nuove tecnologie di calcolo nell’INFN dal 1998. Presidente della Commissione Nazionale Calcolo dell’INFN dal 1998Responsabile della gestione della partecipazione INFN ai progetti finanziati dalla comunità europea DataGrid e DataTAG e membro del consiglio di gestione di questi progetti. Responsabile nazionale del progetto speciale INFN Grid. Membro del comitato Intergrid Europa-USA-Asia.

Present position: INFN Director of ResearchINFN national co-ordinator of many HEP experiments based at CERN: NA16, NA27 and DELPHI.Project Leader during the DELPHI construction. Member of the DELPHI Management Board since 1993 as coordinator of the offline computing activity. Member of the CERN LHC Computing Review Board from 1994 to 1996. Chairman of the CERN LHC Computing Committee since 1996 and member of the review committee LHCC. Chairman of the INFN CNTC, the Committee which foster the introduction of the new computing technologies in INFN, since 1998. President of the INFN Computing Committee since 1998.Responsible for the management of the INFN participation to the EU funded projects DataGrid and DataTAG and member of the management board of these projects.National responsible of the special project INFN Grid. Member of the Intergrid EU-US-ASIA Management Board.

1.5 Risorse umane da impegnare nelle attività dell'Unità di Ricerca

1.5.1 Personale dipendente dell'Istituzione, sede dell'Unità di ricerca nº Cognome Nome Dipartimento/

Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo Costo (ML)

1. CASTELVETRI ATTILIO  INFN - CNAF  Primo Tecnologo 

  6  60 (30.99 KEuro) 

2. GAIDO  LUCIANO  INFN - sezione di Torino 

Tecnologo    6  54 (27.89 KEuro) 

3. GHISELLI  ANTONIA  INFN - CNAF  Dirigente Tecnologo 

  6  92 (47.51 KEuro) 

4. LUSSO  STEFANO  INFN - sezione di Torino 

Tecnologo    6  54 (27.89 KEuro) 

70

5. MAZZUCATO  MIRCO  INFN sezione di Padova 

Dirigente di Ricerca 

FIS/04  7  108 (55.78 KEuro) 

6. MICHELOTTO  MICHELE  INFN sezione di Padova 

Tecnologo    6  54 (27.89 KEuro) 

7. RUGGIERI  FEDERICO  INFN - CNAF  Dirigente di Ricerca 

FIS/04  6  92 (47.51 KEuro) 

8. SGARAVATTO MASSIMO  INFN sezione di Padova 

Tecnologo    6  54 (27.89 KEuro) 

                 49  568 (293.35 KEuro) 

1.5.2 Personale dipendente di Istituzioni non partecipanti come Unità di Ricerca

nº Cognome Nome Istituzione

Dipartimento/Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo

Costo (ML)

1. APOSTOLICO  ALBERTO  Università di Padova 

DEI  Professore Ordinario 

ING-INF/05 

5  37 (19.11 KEuro) 

2. BARUFFOLO  ANDREA  INAF  Osservatorio Astronomico di Padova 

Astronomo Ricercatore 

  6  42 (21.69 KEuro) 

3. BELTRAME  FRANCESCO 

Università degli Studi di Genova 

DIST  Professore Straordinario 

ING-INF/06 

3  36 (18.59 KEuro) 

4. BENACCHIO  LEOPOLDO INAF  Osservatorio Astronomico di Padova 

Astronomo Associato 

  6  62 (32.02 KEuro) 

5. CASTIGLIONI  ISABELLA  CNR  INB / IBFM  Ricercatore 

ING-INF/06 

3  24 (12.39 KEuro) 

6. COMARI  MAURIZIO  INAF  Osservatorio Astronomico di Trieste 

Astronomo Ricercatore 

  6  42 (21.69 KEuro) 

7. DIMARCANTONIO 

PAOLO  INAF  Osservatorio Astronomico di Trieste 

Astronomo Ricercatore 

  6  42 (21.69 KEuro) 

8. FERRARI  CARLO  Università di Padova 

DEI  Ricercatore Confermato 

ING-INF/05 

15  55 (28.41 KEuro) 

9. GELFI  CECILIA  CNR  ITBA / IBFM  Tecnologo  BIO/10  2  16 (8.26 KEuro) 

10.

GUERRA  CONCETTINA 

Università di Padova 

DEI  Professore Ordinario 

ING-INF/05 

3  22 (11.36 KEuro) 

11.

MACEDONIO  GIANNI  INGV  Osservatorio Vesuviano 

Professore Associato 

  12  78 (40.28 KEuro) 

12.

MARTINI  MARCELLO INGV  Osservatorio Vesuviano 

Professore Associato 

  24  120 (61.97 KEuro) 

13 NAVARRA  ANTONIO  INGV  Bologna  Dirigente   24  180 

71

. di Ricerca  (92.96 KEuro) 

14.

OLIVA  ERNESTO  INAF  Osservatorio Astrofisico di Arcetri 

Astronomo Associato 

  3  31 (16.01 KEuro) 

15.

PASIAN  FABIO  INAF  Osservatorio Astronomico di Trieste 

Astronomo Associato 

  6  62 (32.02 KEuro) 

16.

PERANI  DANIELA  CNR  INB / IBFM  Dirigente di Ricerca 

M-PSI/02  1  14 (7.23 KEuro) 

17.

PUCCILLO  MAURO  INAF  Osservatorio Astronomico di Trieste 

Astronomo Ordinario 

  6  87 (44.93 KEuro) 

18.

ROVIDA  ERMANNA  CNR  ITBA / IBFM  Ricercatore 

BIO/10  2  16 (8.26 KEuro) 

19.

SANTIN  PAOLO  INAF  Osservatorio Astronomico di Trieste 

Astronomo Associato 

  6  62 (32.02 KEuro) 

20.

SILVOTTI  ROBERTO  INAF  Osservatorio Astronomico di Capodimonte 

Astronomo Ricercatore 

  1  7 (3.62 KEuro) 

21.

SMAREGLIA  RICCARDO  INAF  Osservatorio Astronomico di Trieste 

Astronomo Ricercatore 

  6  42 (21.69 KEuro) 

22.

TAGLIASCO  VINCENZO  Università degli Studi di Genova 

DIST  Professore Ordinario 

ING-INF/06 

2  38 (19.63 KEuro) 

23.

VUERLI  CLAUDIO  INAF  Osservatorio Astronomico di Trieste 

Astronomo Ricercatore 

  6  42 (21.69 KEuro) 

24.

ZACCHEI  ANDREA  INAF  Osservatorio Astronomico di Trieste 

Astronomo Ricercatore 

  6  42 (21.69 KEuro) 

                    160  1199 (619.23 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.2 SI

1.5.3 Titolari di assegni di ricerca (Riservato alle Strutture Universitarie) 

1.5.4 Titolari di borse di studio, borse per Dottorati di Ricerca e ex L. 398/89 art.4 (post-dottorato e specializzazione) (Riservato alle Strutture Universitarie) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

72

nº Qualifica Tipologia Mesi/uomo Costo (ML)1. Tecnologo  Contr. triennale per giov. ricerc.   33  240 

(123.95 KEuro) 2. Tecnologo  Contr. triennale per giov. ricerc.   33  240 

(123.95 KEuro) 

3. Tecnologo  Contr. triennale per giov. ricerc.   33  240 (123.95 KEuro) 

4. Tecnologo  Contr. triennale per giov. ricerc.   33  240 (123.95 KEuro) 

5. Tecnologo  Contr. triennale per giov. ricerc.   33  240 (123.95 KEuro) 

6. Tecnologo  Contr. triennale per giov. ricerc.   33  240 (123.95 KEuro) 

7. Tecnologo  Contr. triennale per giov. ricerc.   33  240 (123.95 KEuro) 

8. Tecnologo  Contr. triennale per giov. ricerc.   33  240 (123.95 KEuro) 

9. Tecnologo  Contr. triennale per giov. ricerc.   33  240 (123.95 KEuro) 

10. Tecnologo  Contr. triennale per giov. ricerc.   33  240 (123.95 KEuro) 

11. Tecnologo  Contr. triennale per giov. ricerc.   24  175 (90.38 KEuro) 

12. Tecnologo  Contr. triennale per giov. ricerc.   24  175 (90.38 KEuro) 

13. Tecnologo  Contr. triennale per giov. ricerc.   15  109 (56.29 KEuro) 

14. Tecnologo  Contr. triennale per giov. ricerc.   14  102 (52.68 KEuro) 

15. Tecnologo  Contr. triennale per giov. ricerc.   6  44 (22.72 KEuro) 

16. Tecnologo  Contr. triennale per giov. ricerc.   2  15 (7.75 KEuro) 

        415  3.020 (1559.70 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali nº Cognome Nome Istituzione Nazione Qualifica Mesi/uomo Costo (ML)                 0  0 

(0.00 KEuro) Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.6:

1.5.7 Mesi uomo complessivi dedicati alle attività proposte   Numero Mesi/uomo Costo (ML) Spese stages e

missioni all'esteroMLit (K€)

73

1.5.1 Personale dipendente dell'Istituzione sede dell'Unità di Ricerca

8  49  568 (293.35 KEuro) 

0 (0.00 KEuro) 

1.5.2 Personale dipendente di Istituzioni nazionali non partecipanti come Unità di Ricerca

24  160  1199 (619.23 KEuro) 

0 (0.00 KEuro) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

16  415  3020 (1559.70 KEuro) 

0 (0.00 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali

0  0  0 (0.00 KEuro) 

0 (0.00 KEuro) 

TOTALE 48  624  4787 (2472.28 KEuro) 

0 (0.00 KEuro) 

1.6 Descrizione delle attrezzature già disponibili ed utilizzabili per la ricerca proposta

Anno di acquisizione

Descrizione

1. 2000   Spazio disco per dati (1TByte)

Disk space for data (1 TByte)  2. 2001   Batterie di servers di calcolo (circa 200 processori)

Computing Server FARMs (200 CPU)  3. 2001   Accessi alla Rete GARR-B da 2 Mbps a 155 Mbps

GARR-B Network Access between 2 Mbps and 155 Mbps  

1.7.a Descrizione delle strumentazioni, attrezzature e prodotti software da acquisire

nº Descrizione Valore presunto (MLit) Percentuale di utilizzoper le attività proposte

     0 (0.00 KEuro) 

  

1.7.b Descrizione delle grandi attrezzature da acquisire nº Descrizione Valore presunto (MLit) Percentuale di utilizzo

per le attività proposte     0 

(0.00 KEuro)   

1.8 Spese complessive dell'Unità di Ricerca Voce di spesa (DM. 199 Ric. del 08/03/01; art.6, c.6)  Spesa (MLit) NoteSpese di personale (*) 1.767 

(912.58 KEuro) Personale INFN e conferito da altri enti 

Spese generali direttamente imputabili all'attività di ricerca nella misura forfettizzata del 60% del costo del personale (compreso quello relativo ai ricercatori)

2.871 (1482.75 KEuro) 

Include le spese generali per il personale conferito e per i contratti di giovani ricercatori 

74

Spese per giovani ricercatori e ricercatori di chiara fama internazionale

3.020 (1559.70 KEuro) 

Solo giovani ricercatori 

Spese per l'acquisizione di strumentazioni, attrezzature e prodotti software, limitatamente alle quote impiegate per lo svolgimento dell'attività oggetto del progetto

0 (0.00 KEuro) 

Nessuna spesa 

Spese per stages e missioni all'estero di ricercatori coinvolti nel progetto

0 (0.00 KEuro) 

Nessuna spesa 

Costo dei servizi di consulenza e simili utilizzati per l'attività di ricerca

0 (0.00 KEuro) 

Nessuna spesa 

Altri costi di esercizio (ad es. costo dei materiali, delle forniture e dei prodotti analoghi) direttamente imputabili all'attività di ricerca

0 (0.00 KEuro) 

Nessuna spesa 

TOTALE 7.658 (3955.03 KEuro) 

  

(*) = ricercatori, tecnici ed altro personale adibito all'attività di ricerca, dipendente dal soggetto proponente e/o in rapporto subordinato a termine e/o di collaborazione coordinata e continuativa, ivi inclusi dottorati, assegni di ricerca e le borse di studio che prevedevano attività di formazione attraverso la partecipazione al progetto.Incidenza (in %) del costo della UR sul costo totale della proposta progettuale 17 

  MLitCosto complessivo delle attività previste dalla Proposta progettuale per l'Unità di Ricerca 7.658 

(3955.03 KEuro) Fondi disponibili (RD) 1767 

(912.58 KEuro) 

Fondi acquisibili (RA) 0 (0.00 KEuro) 

Finanziamento richiesto al MIUR 2.871 (1482.75 KEuro) 

Finanziamento del MIUR per i contratti triennali 3.020 (1559.70 KEuro) 

1.9 Risorse finanziarie già disponibili all'atto della domanda e utilizzabili a sostegno della Proposta ProgettualeQUADRO RD

Provenienza  Anno di assegnazione Importo disponibile (MLit) NotePropri (*) 2001  568 

(293.35 KEuro) Stipendi personale 

Pubbliche Amministrazioni 2001  188 (97.09 KEuro) 

stipendi universita' 

EPR (Enti Pubblici di Ricerca) 2001  1011 (522.14 KEuro) 

stipendi EPR 

Unione Europea      

Imprese      Fondazioni      

Altro (vedi 1.10)      TOTALE    1767    

75

(912.58 KEuro) 

(*) = ad esempio stipendi, assegni di ricerca, borse di studio, dottorati di ricerca, post-dottorato e specializzazione

1.10 Risorse finanziarie acquisibili in data successiva a quella della domanda e utilizzabili a sostegno della Proposta Progettuale nell'ambito della durata previstaQUADRO RA

Provenienza  Anno della domanda o stipula del contratto

Stato di approvazione

Quota disponibile per il programma (MLit)

Note

Propri (ad es. stipendi)        

Pubbliche Amministrazioni

       

EPR (Enti Pubblici di Ricerca)

       

Unione Europea        Imprese        

Fondazioni        Altro (vedi 1.10)        

TOTALE       0 (0.00 KEuro) 

  

1.13 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di cui ai punti 1.9 e 1.10: SI  

76

Unità di Ricerca n. 5

1.1 Descrizione della struttura e dei compiti dell'Unità di Ricerca

L'unità di ricerca CNIT principalmente svilupperà la propria attività all'interno del laboratorio Nazionale di Reti Fotoniche localizzato a Pisa. Dipendenti ed afferenti CNIT operano e contribuiscono alle attività del laboratorio, mettendo a disposizione un patrimonio di conoscenze estremamente ampio. Il personale impegnato nell'unità di ricerca si occupa sia degli aspetti teorici che di quelli sperimentali. Il Laboratorio Nazionale di Reti Fotoniche comprende un cluster di workstations equipaggiate con software simulativi per le ricerche teoriche e le attività di sviluppo. Un altra sezione del laboratorio contiene gli apparati migliori disponibili sul mercato quali laser tunabili e tester per misurare la BER operanti a velocità di Gbit/sec su link punto-punto e reti più complesse. Un accordo a lungo termine con Marconi Communications ne assicura una collaborazione permanente, in particolare per la messa a punto dei progetti di reti fotoniche ad elevatissime prestazioni.

Il lavoro dell'Unità di Ricerca il cui responsabile è il Prof. Giancarlo Prati copre sia i temi delle reti fotoniche che quelli delle tecnologie fotoniche a supporto del grid computing. Riguardo le reti fotoniche la principale attività è focalizzata sui metodi di mappaggio efficiente del protocollo IP su una rete di trasporto DWDM, semplificando la pila di protocolli IP/ATM/SDH/DWDM. Questa procedura per eliminare i livelli di rete è condotta attraverso studi nell'area della commutazione di pacchetto ottico che consente di eliminare il peso dei livelli intermedi tra IP e DWDM, possibilmente mostrando soluzioni intermedie per questa migrazione. In questo scenario il problema della QoS è anche rilevante sia per gli scopi di reti ottiche ad elevate velocità sia per il supporto della QoS. Efficienti realizzazioni di aggregazione ed ingegneria del traffico basate sulla combinazione IP/MPLS sono oggetto di studio intenso. In particolare si stanno analizzando applicazioni che necessitano di elevate larghezze di banda sul test-bed denominato VESPER (Very High Speed Experimental Ring).Per quanto riguarda le tecnologie fotoniche, sono previsti studi intrecciati dal punto di vista architetturale e tecnologico per la realizzazione di nuovi dispositivi per reti tutto-ottiche a supporto del grid-computing.

L'organizzazione della ricerca è strutturata su due workpackages, di cui il primo prevalentemente teorico è articolato su 5 attività, mentre il secondo prevalentemente sperimentale è articolato su 3 attività. Nel dettaglio:

WP1 - Grid Oriented Optical Switching Paradigms, Responsabile: Prof. P. Castoldi (Lab. Naz. di Reti Fotoniche). Le attività del WP1 sono così organizzate:A1.1 - Modelli di traffico, servizi di rete e architettura del bandwidth broker. Responsabile: Prof. R. Battiti (CNIT-TN)A1.2 - Grid computing su reti ottiche a stato dell'arte. Responsabile: Prof. P. Castoldi (Lab. Naz. di Reti Fotoniche)A1.3 - Scenari di migrazione verso reti completamente ottiche. Responsabile: Prof. F. Callegati (CNIT-BO)A1.4 - Reti a commutazione di pacchetto ottico per grid computing. Responsabile: Prof. A. Fumagalli (Univ. of Texas)A1.5 - Tecnologie abilitanti per la commutazione di pacchetto ottico. Responsabile: Prof. G. Cancellieri (CNIT-AN)Questo workpackage contiene le attività di tipo teorico che saranno condotte affinché le reti ottiche possano supportare efficacemente lo scenario di grid computing previsto. La ricerca proposta è indirizzata a coprire tre scenari di evoluzione nel mondo delle reti fotoniche: (i) architetture di rete esistenti: IP-ATM-SDH-WDM; (ii) architetture di reti del prossimo futuro: IP+MPLS-SDH-WDM; (iii) architetture di rete a lungo termine: IP+MPLS-WDM.

WP2 - High performance Photonic Test bed, Responsabile: Prof. S. Giordano (Lab. Naz. di Reti Fotoniche). Le attività del WP2 sono così organizzate:A2.1 - Ri-orientamento del testbed fotonico al grid computing. Responsabile: Prof. S. Giordano (Lab. Naz. di Reti Fotoniche)A2.2 - Evoluzione del test bed fotonico: Responsabile. Responsabile: Prof. S. Giordano (Lab. Naz. di Reti Fotoniche)

77

A2.3 - Esperimenti di grid computing basati su commutazione di pacchetto ottico. Responsabile: Prof. P. Castoldi (Lab. Naz. di Reti Fotoniche)Questo workpackage contiene le attività sperimentali che saranno condotte sul testbed fotonico ad alte prestazioni denominato VESPER per quanto riguarda le attività A2.1 e A2.2 mentre l'attività A2.3 sarà svolta nel Laboratorio nazionale di Reti Fotoniche di CNIT e in quello dell'Università del Texas a Dallas. Gli esperimenti di grid computing sul tesbed saranno sviluppati in parallelo con le soluzioni teoriche studiate nel WP1

Il laboratorio CNIT è coinvolto in tutte le attività dei due workpackages. Le attività svolte dal personale del laboratorio sono supervisionate dal Direttore del Laboratorio, Prof Franco Russo e dal Direttore del CNIT, Prof Giancarlo Prati.Il personale del Laboratorio CNIT possiede competenze nelle seguenti aree:a) Analisi e gestione di reti ottiche con struttura a livelli con traffico a picchi ad alta bit-rate e/o autosimile.b) Interfacciamento fra strati per colmare la differente granularità tra la capacità dei blocchi a commutazione di tipo elettrico e i canali trasparenti basati sulle lunghezze d'onda. c) Analisi di traffico e valutazione delle prestazioni di throughput sia ai nodi di accesso che di rete.d) Definizione dell'architettura dei nodi di accesso per gestire traffico multicast, per poterli disporre in cascata e per la progettazione delle interfacce nodo/rete.e) Gestione di Optical Cross Connects (OXCs), Optical Add and Drop Multiplexers (OADMs) e della commutazione ottica per migliorare l'efficienza delle reti multilivello.f) Metodologie per garantire la qualità del servizio (QoS) g) Tecniche per gestire i canali ottici WDM all'interno delle reti IP/WDM a livello ottico.h) Architetture innovative per la commutazione di pacchetti ottici per l'instradamento dei pacchetti IP.i) Studio di fattibilità tecnica di tutti gli approcci attraverso la progettazione di nuovi dispositivi ottici.Altri gruppi di ricerca CNIT coinvolti nel progetto sono:- CNIT Ancona: il gruppo ha una solida esperienza sulle tecnologie fotoniche e le sue ricerche sono principalmente focalizzate nello sviluppo di nuovi dispositivi per commutazione ottica dal punto di visto tecnologico. Questo gruppo, guidato dal Prof. Cancellieri sarà attivo sulle attività teoriche relative all'Optical Packet Switching (OPS).- CNIT Bologna: il gruppo ha una vasta esperienza sulle architetture di switching di tipo all-optical, protocolli di livello MAC e algoritmi per la risoluzione delle contese. Il gruppo, guidato dal Prof. G. Corazza, studierà gli scenari di migrazione verso paradigmi di commutazione a pacchetto tutto-ottici dal punto di vista dei dispositivi e della rete.- CNIT Trento: il gruppo ha una notevole esperienza sui modelli di traffico e sulle problematiche per la gestione della Qualità del Servizio, che saranno analizzate in funzione del grid computing. Il gruppo, guidato dal Prof. R. Battiti, si focalizzerà sulla creazione di modelli di traffico generato da applicazioni distribuite e sulla architettura del bandwidth broker.Anche il gruppo di ricerca del Prof. A. Fumagalli dell'Università del Texas @ Dallas (UTD) partecipa al progetto e contribuisce ad entrambi i workpackages. L'istituzione ha una forte competenza su tutti gli aspetti di networking ottico, con particolare enfasi sui protocolli per reti ottiche ad elevata velocità, meccanismi di protezione e ripristino, progettazione di reti ottime.

CNIT Research Unit (RU) will mainly develop its activity within the National Photonic Networks Laboratory located in Pisa. Both CNIT employees and affiliate members operate and contribute to the Lab activities, sharing an extremely important expertise. The task of the RU cover both theoretical and experimental aspects.The National Photonic Networks Laboratory comprises a cluster of workstations equipped with simulation software for theoretical research and development activities. Another section of the Lab comprises state-of-art equipment such as tunable lasers, BER tester at Gb/s speed for point-to-point and networks links tests. A long term agreement with Marconi Communications ensures the permanent collabaoration with this company and in particular is main drive for the set-up of the high-performance photonic network test-bed.

The research work of the RU, whose responsible is Prof. Giancarlo Prati covers both themes of photonic networks and photonic technologies to support grid computing. As regards photonic networks the main activity is focused on efficient mapping of the IP protocol on a DWDM-based transport network, by simplification of the protocol stack IP/ATM/SDH/DWDM. This network "delayering" procedure is carried out by investigations in the area of optical packet switching which allows to eliminate the burden of intermediate layers between IP and DWDM, possibly showing intermediate solutions for this migration. In this scenario the problem of QoS is also relevant since the goals of high speed optical networks is both improved transport

78

speed and QoS support. Efficient implementations of traffic grooming and traffic engineering based on IP/MPlS combination are object of intense investigation. Specific, bandwidth hungry applications are under test within the experimental test-bed denominated VESPER (Very High Speed Experimental Ring).As regards photonic technologies, we have envisioned a specific activity with links to other activities dedicated to investigations on novel devices for all-optical networks to support grid computing.

The organization of the research work is structured in 2 workpackages: the first is mainly theoretical and is divided in 5 activities, while the second is mainly experimental and it is divede in 3 activities. In details:

WP1 - Grid Oriented Optical Switching Paradigms, Responsible: Prof. P. Castoldi (Lab. Naz. di Reti Fotoniche). WP1 activities are organized as follows:A1.1 - Traffic models, network services and bandwidth broker architecture. Responsabile: Prof. R. Battiti (CNIT-TN)A1.2 - Grid computing on state of the art optical networks. Responsible: Prof. P. Castoldi (Lab. Naz. di Reti Fotoniche)A1.3 - Migration scenarios to all-optical networks. Responsible: Prof. F. Callegati (CNIT-BO)A1.4 - Optical packet switching networks for grid computing. Responsabile: Prof. A. Fumagalli (Univ. of Texas)A1.5 - Enabling technologies for optical packet switching. Responsabile: Prof. G. Cancellieri (CNIT-AN)This workpackage contains the theoretical activities that will be carried out on the optical network required to support the envisioned grid computing scenario. The proposed research will be organized to address three specific scenarios: (i) present network architectures: IP-ATM-SDH-WDM; (ii) near future network architectures: IP+MPLS-SDH-WDM; (iii) long term network architectures: IP+MPLS-WDM.

WP2 - High performance Photonic Test bed, Responsible: Prof. S. Giordano (Lab. Naz. di Reti Fotoniche). WP2 activities are organized as follows:A2.1 - Photonic testbed re-orientation for grid computing. Responsible: Prof. S. Giordano (Lab. Naz. di Reti Fotoniche)A2.2 - Evolution of the photonic testbed: Responsabile. Responsible: Prof. S. Giordano (Lab. Naz. di Reti Fotoniche)A2.3 - Experiments of grid computing based on optical packet switching. Responsible: Prof. P. Castoldi (Lab. Naz. di Reti Fotoniche)This workpackage contains the experimental activities that will be carried out on the high-performance photonic testbed denominated VESPER as regards activities A2.1 and A2.2 while activity A2.3 will be carried out in the CNIT and UTD laboratories. The esperiments of grid computing on the testbed will be developed in parallel with the theoretical activities studied in WP1

The CNIT Lab is involved in all activities of the two workpackages. The activities of Lab staff are supervised by the Lab Director, Prof. Franco Russo and the CNIT Director himself, prof. Giancarlo Prati. The CNIT Lab group covers the following expertise:a) Analysis and management of optical network with layered structure to handle high bit rate bursty and/or self-similar trafficb) Interfacing between layers to bridge the granularity gap between the electrically switched capacity blocks and the transparent wavelength channels in the core network.c) Traffic analysis and throughput performance evaluation at both the access node and network.d) Specification of access node architecture allowing for multicasting, cascadability and design of network/node interfaces.e) Experience on management of optical cross connects (OXCs), optical add and drop multiplexers (OADMs), and optical switching to improve efficiency in multilayered networks.f) Methodologies to guarantee quality of service (QoS)g) Techniques for managing all the light pipes within IP/WDM networks h) Novel optical packet switch architectures for IP router architectures. i) Technical feasibility of the approaches by the design of novel optical devices.Other CNIT affiliates universities involved in the project are:- CNIT Ancona: the group has a solid experience on photonic technologies and its activity will be mainly focused on the design of novel optical switching strategies from a technological point of view.This group, led by Prof. G. Cancellieri will be active on the theoretical activities regarding enabling technologies for optical packet switching (OPS).- CNIT Bologna: the group has a large experience on architectures of all-optical switches, MAC protocols and contention resolution algorithms. The group, led by Prof. G. Corazza, will study the migration scenarios towards a complete all-optical packet switching paradigm under the network and device point of view.

79

- CNIT Trento: the group has a wide experience on the traffic modelling and QoS issues, which will be investigated with reference to grid computing. The group, led by Prof. R. Battiti, will focuson the modeling of traffic generated by distributed applications and on the bandwidth broker architechture.The group of Prof. A. Fumagalli of the University of Texas @ Dallas also participates to the project and contributes to both workpackages. This institution has a strong competence on all aspects of optical networking, with emphasis on protocols for high speed and optical networks, protection and restoration mechanisms, optimal network design.

1.2 Responsabile Scientifico dell'Unità di Ricerca PRATI  GIANCARLO  PRTGCR46S13H501N 

(cognome)   (nome)   (CF)  

Direttore  ING-INF/03  13/11/1946 

(qualifica)   (settore)   (data di nascita)  

CNIT, CONSORZIO NAZIONALE INTERUNIVERSITARIO PER LE TELECOMUNICAZIONI 

Direzione  Professore ordinario 

(Istituzione di appartenenza)(art.5, c.1, DM citato)  

(Dipartimento/Istituto/Divisione/Settore) (posizione)  

050/970719  050/9711208  [email protected] 

(prefisso e telefono)   (numero fax)   (indirizzo posta elettronica)  

Referenza Cognome PICCHI Nome GIORGIO Email [email protected] Istituzione Università di Parma 

1.3 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca

Il prof. Prati nasce a Roma nel 1946. Si laurea a Pisa nel 1972 in ing. elettronica, allievo della Scuola Superiore S.Anna. Nel 1978-79 è Visiting Scientist presso la Univ. of Southern California, dove lavora sulle comunicazioni ottiche. L'attività si sviluppa sino ad oggi: nel 1982 è Visiting Associate Professor presso la Univ. of Massachusetts, fino al 1986 è ricercatore presso il Centro di Radiotrasmissioni del CNR di Pisa, dal 1986 è ordinario di Telecomunicazioni all'Univ. di Genova, e dal 1988 all'Univ. di Parma. Dal 1992 al 1998 è Preside della Facoltà di Ingegneria di Parma. Nel 1993-95 è membro della Commissione di Fattibilità del CNR per il P.F. Fotonica. Dal 1995 è Direttore del CNIT, consorzio di 30 università per le Telecomunicazioni, da lui promosso. Dal 1999 è membro del TPC della Europ. Conf. on Optical Comm. Il prof. Prati ha promosso e gestito rilevanti progetti di comunicazioni ottiche nazionali e internazionali ed è autore di oltre 60 pubblicazioni.

Prof. Prati was born in Rome in 1946, He graduated in 1972 at Pisa Univ. in electronic eng., alumnus of Scuola Superiore S.Anna. In 1978-79 he was Visiting Scientist at USC (Univ.of South.Calif.), working in optical communications. His activity has developed since then: in 1982 he was Visiting Associate Professor at UMass, until 1986 he was Researcher with the CNR Center for Radio Transmission in Pisa, since 1986 he was professor of telecommunications at Genoa Univ., then since 1988 at Parma Univ. In 1992-98 he was Dean of Engineering at Parma Univ. In 1993-95 he was member of the CNR Feasibility Committee for

80

"Photonics" project. Since 1995 he is Director of CNIT, a Consortium of 30 Universities for Tele communications he promoted. Since 1999 he is a member of the TPC of ECOC. Prof Prati has promoted and managed several national/international projects on optical communications and authored more than 60 papers.

1.4 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca nº Pubblicazione1. FORESTIERI E.; PRATI G. (2001). Novel Optical Line Codes Tolerant to Fiber Chromatic

Dispersion IEEE JOURNAL OF LIGHTWAVE TECHNOLOGY. (vol. 19)  2. PRATI G.; POTI' L.; BOGONI A.; FERGUSON S. (2000). Sistemi di trasmissione a multiplazione

ottica ALTA FREQUENZA. (vol. 13) , Luglio-Settembre 2000.  3. PAL B.; GANGOPADHYAY R.; PRATI G. (2000). Analytical Evaluation of Transmission Penalty

due to Group Velocity Dispersion, Self Phase Modulation, and Amplifier Noise in Optical CPFSK Systems JOURNAL OF LIGHTWAVE TECHNOLOGY. (vol. 18 pp. 530-539) ISSN: 0733-8724 , April 2000.  

4. PRATI G.; POTI' L.; BOGONI A.; FERGUSON S. (2000). Perspectives of Optical TDM Systems International Conference on Communications, Computers & Devices ICCCD-2000. 14-16 December. vol. 1 pp. 13-23 Plenary Lecture.  

5. PRATI G. (1998). The DAWRON Project:Design of Advanced Wavelength Routed Optical Networks FINAL TECHNICAL REPORT EU INCO-DC N.950959. (vol. unico) G.Prati editor.  

1.4.a Titoli scientifici più significativi del Responsabile Scientifico dell'Unità di Ricerca

Il prof. Prati ha iniziato la sua attività di ricerca nel settore delle comunicazioni ottiche nel 1978, collaborando con il prof. Robert Gagliardi presso la University of Southern California di Los Angeles con una borsa di studio NATO sui sistemi per comunicazioni ottiche su canale non guidato per applicazioni interplanetarie, intersatellitari e da satellite a sottomarino.

Nel periodo 1980-1987 ha condotto studi sui ricevitori e sulla codifica per trasmissioni ottiche a pochi fotoni per bit in ambito spaziale.

Nel 1987-88 ha collaborato dall'Università di Genova con la Marconi Italiana con una convenzione di ricerca su sistemi di comunicazione in fibra ottica.

Nel 1988-91 è stato responsabile a Parma del progetto "All-optical Networks" , finanziato in parte dall'European Institute of Technology e in parte dal CNR come Progetto Strategico, riguardante vari aspetti sulle tecnologie e i sistemi per le reti ottiche.

Nel 1989 ha iniziato una attività di ricerca sui sistemi ottici coerenti in fibra finanziata dal CNR nell'ambito del Progetto Finalizzato quinquennale "Telecomunicazioni", e che ha condotto, in collaborazione con Marconi Italiana, alla realizzazione del primo dei due dimostratori italiani (l'altro è stato di CSELT) per un apparato di comunicazione in ottica coerente a 622 Mbit/s nel 1994.

Negli anni 1993-96 è stato membro della Commissione di Fattibilità del CNR per il progetto finalizzato "Fotonica".

Negli anni 1996-98 è stato coordinatore del progetto europeo DAWRON (Design of Advanced Wavelength Routed Optical Networks) finanziato nell'ambito del programma di collaborazione con Paesi terzi INCO-DC, in collaborazione con University College London e Indian Institute of Technology di Kharagpur. L'attività ha riguardato lo studio analitico, simulativo e sperimentale delle degradazione introdotte in sistemi coerenti e a rivelazione diretta sia da effetti lineari che non lineari sulla fibra.

81

Dal 1997 al 1999 è stato responsabile di una convenzione di ricerca triennale tra l'Università di Parma e Marconi Communications riguardante lo studio degli effetti non lineari in sistemi WDM.

Dal 1997 al 1999 è stato responsabile di un contratto con CSELT per collaborazione all'attività di ricerca sulle comunicazioni ottiche sviluppata a Parma sugli effetti delle non linearità in fibra e degli amplificatori ottici sui sistemi punto-punto WDM.

Dal 1998 è responsabile nazionale del progetto di ricerca "Rete ottica passiva per applicazioni multimediali", finanziato dal CNR per lo studio, la progettazione e la realizzazione di un dimostratore di rete PON (Passive Optical Network) per servizio sperimentale di teledidattica interattiva e video-on-demand sul Parco "Area delle Scienze" dell'Università di Parma.

Dal novembre 1999 è responsabile per l'Università di Parma dell'attività nel progetto di ricerca di rilevante interesse nazionale MURST sul tema "Sistemi OTDM (Optical Time Division Multiplexing)", di durata biennale.

Dal gennaio 2000 coordina la partecipazione CNIT al progetto triennale LOBSTER finanziato dalla Commissione Europea nel V Programma Quadro, riguardante amplificatori ottici in fibra drogata con terre rare diverse dall'erbio per ottenere bande passanti sensibilmente superiori alle attuali.

Nel 2000-01 coordina l'attività CNIT su commessa Marconi relativa allo sviluppo di un compensatore automatico in fibra per la dispersione dei modi di polarizzazione (PMD) a 40 Gbit/s

Dal 2001 collabora alla realizzazione del Centro di Eccellenza per l'Ingegneria delle Reti di Comunicazione del MIUR (ex MURST) presso la Scuola Superiore Sant'Anna

Dal 2001 è responsabile del gruppo di ricerca presso la Scuola Superiore Sant'Anna che opera in collaborazione con Marconi Communications nella ricerca sulle reti e tecnologie fotoniche

Nel settore delle comunicazioni ottiche il prof. Prati ha ottenuto un brevetto relativo uno a nuovi codici di linea e ne ha due pendenti relativi a un innovativo formato di modulazione per trasmissione efficiente su fibra ottica dispersiva e su un algoritmo per l'adattamento automatico di un compensatore in fibra ottica per la dispersone dei modi di polarizzazione a 40 Gbit/s.

Il prof. Prati è stato promotore, organizzatore e chairman di convegni sulle comunicazioni ottiche della serie "International Tyrrhenian Workshop on Digital Communications": nel 1989 (Topical meeting on Optical Networks and Photonic Swotching, editor dei proceedings con Elsevier), nel 1996 (Topical meeting on "Photonic Networks", editor dei proceedings con Springer Verlag) e general chairman nel 1999 del workshop su "The Optical Network Layer: Management, Systems and Technologies".

Dal 1999 è membro del Technical Program Committee della European Conference on Optical Communications (ECOC).

Nel 2000 è stato Technical Co-Chairman della conferenza Photonics 2000, organizzata con la collaborazione di IEEE a Calcutta.

E' Technical Program Chairman del convegno Fotonica 2003 dell'Associazione Elettrotecnica ed Elettronica Italiana (AEI)

Professor Prati has started his research activity in the field of optical communications in 1978, collaborating through a NATO Fellowship program with professor Robert Gagliardi at the University of Southern California, Los Angeles, on optical communications systems over unguided channels for deep-space, intersatellite and satellite-to-submarine applications.

In the period 1980-1987 he has carried on his research on receivers and coding techniques for optical communications using few photons per bit for deep-space applications.

In 1987-88 he has collaborated, as a professor at Genoa University, with Marconi Italiana as responsible of research contract on fiber optic communication systems.

82

In 1988-91 he has been responsible at Parma University of the project "All-optical Networks", financed (1.1 Billion ItLira) in part by the European Institue of Technology and in part by the National Research Council (CNR) as a Strategic Project, dealing with various aspects of technology and systems for optical networks.

In 1989 he has started a research activity on coherent fiber optic systems, financed by CNR within the 5-year-span National Project "Telecommunications", activity that has led in collaboration with Marconi Italiana to the realization of the first Italian demonstrator for a 622 Mbps coherent optical communication system in 1994.

In the years 1993-1996 he has been a Member of the CNR Feasibility Committee for the National Project "Photonics".

In the years 1996-98 he has been coordinator of the European Project DAWRON (Design of Advanced Wavelength Routed Optical Networks) financed within the framework of the EU collaboration program with "Third Countries" INCO-DC, in collaboration with the University College London and the Indian Institute of Technology, Kharagpur. The activity dealt with the analysis, simulation and experimental verification of the degradation introduced in optical coherent and non coherent (direct detection) systems by linear and non linear effects along the communication path.

In the years 1997-99 he has been responsible at Parma University for a 3-year research contract with Marconi Communications concerning the study of non linear effects in Wavelength Division Multiplexed (WDM) systems.

In the same years 1997-99 he has been responsible of a research grant by CSELT for research on the effects of non linearities due to the fiber and the optical amplifiers in the point-to-point WDM systems.

Since 1998 he is responsible of the national project "Passive Optical Network (PON) for Multimedia Applications", financed by CNR for the study, design, and realization of a PON demonstrator for an experimental distance-learning and video-on-demand (VOD) service over the Campus of Parma University.

Since 1999 he is responsible at Parma University of the research activity for the Project of National Interest by the Ministry of Research on "OTDM (Optical Time Division Multiplexing) Systems", financed for 2 years.

Since 2000 he is coordinator of the CNIT (National Consortium for Telecommunications) participation to the EU project "LOBSTER", financed by the European Commission within the 5th Framework Program, regarding fiber-optic optical amplifiers doped with rare earths other than Erbium in order to obtain improved performance.

In the years 2000-01 he is coordinator of the CNIT activity for a contract with Marconi concerning the development of a fiber-optic automatic compensator for the polarization mode dispersion (PMD) at 40 Gbps

In 2001 he promotes the realization in Pisa of the Center of Excellence for Communication Networks Engineering of the Ministry of Research at the Scuola Superiore Sant'Anna, where he has moved since July 2000.

Since 2001 he is responsible of the Optical Research Group at Scuola Superiore Sant'Anna operating in strict collaboration with Marconi Communications for research on photonic networks and technologies.

Professor Prati holds, in the field of optical communications, a patent for new line codes, while two are pending, related to new modulation format and an automatic adaptation algorithm for PMD compensation at 40 Gbit/s.

Professor Prati has been promoter, organizer, and chairman of several conferences on optical communication of the series "International Tyrrhenian Workshop on Digital Communications": in 1989 (Topical meeting on Optical Networks and Photonic Switching, Proceedings Editor with Elsevier), in 1996 (Topical meeting on "Photonic Networks", Proceedings Editor with Springer Verlag) and General Chairman in 1999 of the Workshop on "The Optical Network Layer: Management, Systems and Technologies".

Since 1999 he is a Member of the Technical Program Committee of the European Conference on Optical Communications (ECOC).

83

In 2000 he has been Technical Co-Chairman of the conference Photonics 2000, organized with the collaboration of the IEEE in Calcutta.

He is presently Technical Program Chairman of the Conference Fotonica 2003 organized by Associazione Elettrotecnica ed Elettronica Italiana (AEI)

1.5 Risorse umane da impegnare nelle attività dell'Unità di Ricerca

1.5.1 Personale dipendente dell'Istituzione, sede dell'Unità di ricerca nº Cognome Nome Dipartimento/

Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo

Costo (ML)

1. ADAMI  DAVIDE  Lab Naz Reti Fotoniche CNIT 

Ricercatore CNIT 

ING-INF/03 

8  67 (34.60 KEuro) 

2. BATTITI  ROBERTO  UdR CNIT TN  Prof Ordinario 

INF/01  8  139 (71.79 KEuro) 

3. BOGONI  ANTONELLA  Lab Naz Reti Fotoniche CNIT 

Ricercatore CNIT 

ING-INF/03 

10  79 (40.80 KEuro) 

4. BOUGUERRA 

ABDELBAKI  UdR CNIT TN  Dottorando ING-INF/03 

15  33 (17.04 KEuro) 

5. BRUNATO  MARIO  UdR CNIT TN  Assegnista ING-INF/03 

24  65 (33.57 KEuro) 

6. CALLEGATI  FRANCO  UdR CNIT BO  Ricercatore 

ING-INF/03 

9  77 (39.77 KEuro) 

7. CANCELLIERI 

GIOVANNI  UdR CNIT AN  Prof Ordinario 

ING-INF/03 

8  124 (64.04 KEuro) 

8. CASTOLDI  PIERO  Lab Naz Reti Fotoniche CNIT 

Prof Associato 

ING-INF/03 

12  96 (49.58 KEuro) 

9. CORAZZA  GIORGIO  UdR CNIT BO  Prof Ordinario 

ING-INF/03 

9  168 (86.76 KEuro) 

10. CUGINI  FILIPPO  Lab Naz Reti Fotoniche CNIT 

Ricercatore CNIT 

ING-INF/03 

12  58 (29.95 KEuro) 

11. DA  ACQUISIRE  UdR CNIT TN  Dottorando ING-INF/03 

15  33 (17.04 KEuro) 

12. DA DEFINIRE 

IN ASSUNZIONE 

Lab Naz Reti Fotoniche CNIT 

Resp di ricerca CNIT 

ING-INF/03 

8  138 (71.27 KEuro) 

13. DA DEFINIRE 

IN CHIAMATA 

Lab Naz Reti Fotoniche CNIT 

Prof Associato 

ING-INF/03 

6  48 (24.79 KEuro) 

14. DA DEFINIRE 

IN CHIAMATA 

Lab Naz Reti Fotoniche CNIT 

Prof Associato 

ING-INF/03 

8  64 (33.05 KEuro) 

15. DE NATALE  FRANCESCO UdR CNIT TN  Prof Associato 

ING-INF/03 

8  66 (34.09 KEuro) 

16. DI PASQUALE 

FABRIZIO  Lab Naz Reti Fotoniche CNIT 

Prof Associato 

ING-INF/03 

6  48 (24.79 KEuro) 

17. FARALLI  STEFANO  Lab Naz Reti Fotoniche CNIT 

Dottorando ING-INF/03 

12  26 (13.43 KEuro) 

18. FORESTIERI  ENRICO  Lab Naz Reti Fotoniche CNIT 

Prof Associato 

ING-INF/03 

6  48 (24.79 KEuro) 

19. GAMBI  ENNIO  UdR CNIT AN  Ricercatore 

ING-INF/03 

15  123 (63.52 KEuro) 

20. GHELFI  PAOLO  Lab Naz Reti Ricercator ING-INF/ 12  58 

84

Fotoniche CNIT  e CNIT  03  (29.95 KEuro) 

21. GHIZZI  MARCO  Lab Naz Reti Fotoniche CNIT 

Dottorando ING-INF/03 

15  33 (17.04 KEuro) 

22. GIORDANO  STEFANO  Lab Naz Reti Fotoniche CNIT 

Prof Associato 

ING-INF/03 

6  44 (22.72 KEuro) 

23. GRANELLI  FABRIZIO  UdR CNIT TN  Ricercatore 

ING-INF/03 

12  54 (27.89 KEuro) 

24. LOIACONO  CLEMENTE  Lab Naz Reti Fotoniche CNIT 

Dottorando ING-INF/03 

12  26 (13.43 KEuro) 

25. LUCETTI  STEFANO  Lab Naz Reti Fotoniche CNIT 

Dottorando ING-INF/03 

12  26 (13.43 KEuro) 

26. MORELLI  ANDREA  Lab Naz Reti Fotoniche CNIT 

Ricercatore CNIT 

ING-INF/03 

9  44 (22.72 KEuro) 

27. NAHT  TANG LE  UdR CNIT TN  Dottorando ING-INF/03 

15  33 (17.04 KEuro) 

28. NICCOLINI  SAVERIO  Lab Naz Reti Fotoniche CNIT 

Dottorando ING-INF/03 

12  26 (13.43 KEuro) 

29. PAGANO  MICHELE  Lab Naz Reti Fotoniche CNIT 

Ricercatore 

ING-INF/03 

6  40 (20.66 KEuro) 

30. PIERLEONI  PAOLA  UdR CNIT AN  Ricercatore 

ING-INF/03 

15  123 (63.52 KEuro) 

31. PORZI  CLAUDIO  Lab Naz Reti Fotoniche CNIT 

Dottorando ING-INF/03 

12  26 (13.43 KEuro) 

32. POTI'  LUCA  Lab Naz Reti Fotoniche CNIT 

Ricercatore CNIT 

ING-INF/03 

10  79 (40.80 KEuro) 

33. PRATI  GIANCARLO  Direzione  Direttore  ING-INF/03 

6  107 (55.26 KEuro) 

34. RAFFAELLI  CARLA  UdR CNIT BO  Ricercatore 

ING-INF/03 

9  80 (41.32 KEuro) 

35. RUSSO  FRANCO  Lab Naz Reti Fotoniche CNIT 

Prof Ordinario 

ING-INF/03 

6  119 (61.46 KEuro) 

36. SALVADORI  ELIO  UdR CNIT TN  Dottorando ING-INF/03 

15  33 (17.04 KEuro) 

37. SCAFFARDI  MIRCO  Lab Naz Reti Fotoniche CNIT 

Dottorando ING-INF/03 

12  26 (13.43 KEuro) 

                 395  2477 (1279.26 KEuro) 

1.5.2 Personale dipendente di Istituzioni non partecipanti come Unità di Ricerca

nº Cognome Nome Istituzione Dipartimento/Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo Costo (ML)

                    0  0 (0.00 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.2

85

1.5.3 Titolari di assegni di ricerca (Riservato alle Strutture Universitarie) 

1.5.4 Titolari di borse di studio, borse per Dottorati di Ricerca e ex L. 398/89 art.4 (post-dottorato e specializzazione) (Riservato alle Strutture Universitarie) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

nº Qualifica Tipologia Mesi/uomo Costo (ML)1. Ricercatore CNIT  Contr. triennale per giov. ricerc.   33  180 

(92.96 KEuro) 2. Ricercatore CNIT  Contr. triennale per giov. ricerc.   33  180 

(92.96 KEuro) 

3. Ricercatore CNIT  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

4. Ricercatore CNIT  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

5. Ricercatore CNIT  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

6. Ricercatore CNIT  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

7. Ricercatore CNIT  Contr. triennale per giov. ricerc.   33  180 (92.96 KEuro) 

        231  1.260 (650.74 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali nº Cognome Nome Istituzione Nazione Qualifica Mesi/uomo Costo (ML)1. FUMAGALLI  ANDREA  University

of Texas @ Dallas 

UNITED STATES

Associate Prof. 

6  227 (117.24 KEuro) 

2. CILIA  ANDREW  University of Texas @ Dallas 

UNITED STATES

Research Ass 

8  141 (72.82 KEuro) 

3. CERRUTI  ISABELLA  University of Texas @ Dallas 

UNITED STATES

Research Faculty 

8  135 (69.72 KEuro) 

4. VALCARENGHI  LUCA  University of Texas @ Dallas 

UNITED STATES

Research Faculty 

8  135 (69.72 KEuro) 

5. TACCA  MARCO  University of Texas @ Dallas 

UNITED STATES

Research Faculty 

8  47 (24.27 KEuro) 

6. MONTI  PAOLO  University of Texas @ Dallas 

UNITED STATES

Research Ass 

5  29 (14.98 KEuro) 

7. WERAWATTANAGORN  VUTIPONG  University UNITED Research 6  37 

86

of Texas @ Dallas 

STATES Ass  (19.11 KEuro) 

                 49  751 (387.86 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.6: SI

1.5.7 Mesi uomo complessivi dedicati alle attività proposte   Numero Mesi/uomo Costo (ML) Spese stages e

missioni all'esteroMLit (K€)

1.5.1 Personale dipendente dell'Istituzione sede dell'Unità di Ricerca

37  395  2477 (1279.26 KEuro) 

130 (67.14 KEuro) 

1.5.2 Personale dipendente di Istituzioni nazionali non partecipanti come Unità di Ricerca

0  0  0 (0.00 KEuro) 

0 (0.00 KEuro) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

7  231  1260 (650.74 KEuro) 

70 (36.15 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali

7  49  751 (387.86 KEuro) 

40 (20.66 KEuro) 

TOTALE 51  675  4488 (2317.86 KEuro) 

240 (123.95 KEuro) 

1.6 Descrizione delle attrezzature già disponibili ed utilizzabili per la ricerca proposta

Anno di acquisizione

Descrizione

1. 2000   1 misuratore di BER a 12.5 Gb/s

1 BER tester a 12.5 Gb/s  

1.7.a Descrizione delle strumentazioni, attrezzature e prodotti software da acquisire

Descrizione Valore presunto (MLit)

Percentuale di utilizzoper le attività proposte

1.

Stazioni di lavoro, PC desktop e portatili

Workstations, desktop PC and laptops  

50  (25.82 KEuro) 

80  

2.

Licenze per simulatore OPNET

OPNET simulator licenses  

70  (36.15 KEuro) 

100  

87

     120 (61.97 KEuro) 

  

88

1.7.b Descrizione delle grandi attrezzature da acquisire nº

Descrizione Valore presunto (MLit)

Percentuale di utilizzoper le attività proposte

1.

2 router MPLS Juniper M10

2 Juniper M10 MPLS routers  

320  (165.27 KEuro) 

100  

2.

Analizzatore di rete Aditech AX4000

Aditech AX4000 Network analyzer  

300  (154.94 KEuro) 

100  

3.

Analizzatore di rete Smartbits 600

Smartbits 600 Network analyzer  

150  (77.47 KEuro) 

100  

     770 (397.67 KEuro) 

  

1.8 Spese complessive dell'Unità di Ricerca Voce di spesa (DM. 199 Ric. del 08/03/01; art.6, c.6) 

Spesa (MLit) Note

Spese di personale (*) 3.228 (1667.12 KEuro) 

Dipendenti CNIT, personale universitario afferente CNIT(professori, ricercatori, assegnisti, dottorandi). Personale della University of Texas @ Dallas 

Spese generali direttamente imputabili all'attività di ricerca nella misura forfettizzata del 60% del costo del personale (compreso quello relativo ai ricercatori)

2.692 (1390.30 KEuro) 

calcolate su tutto il personale 

Spese per giovani ricercatori e ricercatori di chiara fama internazionale

1.260 (650.74 KEuro) 

E' il costo di 7 ricercatori junior CNIT 

Spese per l'acquisizione di strumentazioni, attrezzature e prodotti software, limitatamente alle quote impiegate per lo svolgimento dell'attività oggetto del progetto

890 (459.65 KEuro) 

Come da dettaglio allegato 

Spese per stages e missioni all'estero di ricercatori coinvolti nel progetto

240 (123.95 KEuro) 

Spese per trasferte e soggiorni di breve durata soprattutto per la collaborazione con la University of Texas @ Dallas 

Costo dei servizi di consulenza e simili utilizzati per l'attività di ricerca

80 (41.32 KEuro) 

Costi di servizi per cablatura di laboratori, trasporto eallestimento delle grandi attrezzature. 

Altri costi di esercizio (ad es. costo dei materiali, delle forniture e dei prodotti analoghi) direttamente imputabili all'attività di ricerca

20 (10.33 KEuro) 

Materiale di consumo 

TOTALE 8.410 (4343.40 KEuro) 

  

89

(*) = ricercatori, tecnici ed altro personale adibito all'attività di ricerca, dipendente dal soggetto proponente e/o in rapporto subordinato a termine e/o di collaborazione coordinata e continuativa, ivi inclusi dottorati, assegni di ricerca e le borse di studio che prevedevano attività di formazione attraverso la partecipazione al progetto.Incidenza (in %) del costo della UR sul costo totale della proposta progettuale 19 

  MLitCosto complessivo delle attività previste dalla Proposta progettuale per l'Unità di Ricerca 8.410 

(4343.40 KEuro) 

Fondi disponibili (RD) 2526 (1304.57 KEuro) 

Fondi acquisibili (RA) 282 (145.64 KEuro) 

Finanziamento richiesto al MIUR 4.342 (2242.46 KEuro) 

Finanziamento del MIUR per i contratti triennali 1.260 (650.74 KEuro) 

1.9 Risorse finanziarie già disponibili all'atto della domanda e utilizzabili a sostegno della Proposta ProgettualeQUADRO RD

Provenienza  Anno di assegnazione

Importo disponibile (MLit)

Note

Propri (*) 2001  2526 (1304.57 KEuro) 

Corrisponde circa all'85% del personale esposto come costo di progetto. 

Pubbliche Amministrazioni

     

EPR (Enti Pubblici di Ricerca)

     

Unione Europea      

Imprese      Fondazioni      

Altro (vedi 1.10)      TOTALE    2526 

(1304.57 KEuro)   

(*) = ad esempio stipendi, assegni di ricerca, borse di studio, dottorati di ricerca, post-dottorato e specializzazione

1.10 Risorse finanziarie acquisibili in data successiva a quella della domanda e utilizzabili a sostegno della Proposta Progettuale nell'ambito della durata prevista

QUADRO RA Provenienza  Anno della

domanda o stipula del contratto

Stato di approvazione

Quota disponibile per il programma (MLit)

Note

Propri (ad es. stipendi)

2002  Disponibile in caso di accettazione della domanda  

282 (145.64 KEuro) 

Personale in corso di assunzione (idonei in chiamata e/o dipendenti CNIT in assunzione) 

90

Pubbliche Amministrazioni

       

EPR (Enti Pubblici di Ricerca)

       

Unione Europea        

Imprese        Fondazioni        

Altro (vedi 1.10)        TOTALE       282 

(145.64 KEuro)   

1.13 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di cui ai punti 1.9 e 1.10: SI  

91

Unità di Ricerca n. 6

1.1 Descrizione della struttura e dei compiti dell'Unità di Ricerca

Questa Unita' di Ricerca raccoglie sotto la responsabilità dell’Agenzia Spaziale Italiana un istituto del CNR (lo IESI di Bari, Istituto per Elaborazione dei Segnali e delle Immagini), Il Dipartimento di Elettronica ed Elettrotecnica del Politecnico di Bari, Il Dipartimento Interateneo di Fisica, dell’Università di Bari, l’ISUFI (Istituto Superiore Universitario per la Formazione Interdisciplinare) dell’Università di Lecce, il centro ESRIN dell’Agenzia Spaziale Europea (ESA) e la società E-Geos, joint-venture tra Telespazio ed per la gestione delle attività di telerilevamento.L'insieme di queste strutture e le competenze tecnico-scientifiche che possiedono permette di avere a disposizione risorse computazionali e conoscenze nel campo dell’HPC, del GRID computing e del telerilevamento in grado di consentire lo sviluppo di un’infrastruttura dedicata alla gestione ed al processamento dei dati di Osservazione della Terra e finalizzata ad interfacciare gli utenti finali. I Centri di eccellenza avranno ciascuno un preciso obiettivo di processamento, ricorrendo là dove l’onerosità del calcolo lo richiede al calcolo parallelo, dando seguito ad altri programmi che l’ASI ha finanziato in tal senso (programma ASI-PQE2000). Verrà costituita una Griglia con i centri di eccellenza distribuiti sul territorio, che potra' funzionare come un test-bed per integrare i dimostratori delle applicazioni di OT ed interfacciare gli utenti tramite un portale dedicato. L’obiettivo è permettere ad un utente remoto di inoltrare la propria richiesta (un’informazione ottenibile a partire dal dato telerilevato), attivando le opportune elaborazioni presso i centri interessati ed usando, così, in modo trasparente le piattaforme di calcolo distribuite per effettuare applicazioni computazionali complesse.

This research unit, managed by the Italian Space Agency, is mainly constituted by an Institute of the Italian National Research Council (the Institute for Signal and Image Processing, CNR of Bari), the Department of Electric and Electronic Engineering of the Politecnico of Bari, the Dipartimento Interateneo of Physics of University of Bari, the ISUFI (Istituto Superiore Universitario per la Formazione Interdisciplinare) of University of Lecce, the ESRIN centre of the European Space Agency (ESA) and the e-GEOS company, a joint venture between Telespazio and ASI (Agenzia Spaziale Italiana) for the management of Remote Sensing activities.All these facilities with their technical and scientific expertise grant the availability of computational resources and HPC knowledge, both of GRID computing and of remote sensing, which allow the development of a framework devoted to the management and processing of remote sensing data and finalised to interface the final users. Each one of the specialised centres will have a well-defined processing task, using, for intensive computations, the parallel computing, inherited by other ASI programs like ASI-PQE2000. A geographically distributed grid will be deployed among the centres, to be used as a test-bed to integrate the Earth Observation applications and to interface the user by a specialised portal. The goal is to allow a remote user to invoke its request (an information resulting from the interpretation of remote-sensed data), starting-up the necessary computations at the appropriate centres and thus clearly using the high performance computing resources to run complex computations.

1.2 Responsabile Scientifico dell'Unità di Ricerca MILILLO  GIOVANNI  MLLGNN54B07B923H 

(cognome)   (nome)   (CF)  

Primo Tecnologo    07/02/1954 

(qualifica)   (settore)   (data di nascita)  

Agenzia Spaziale Italiana (ASI)  Unità O.T. COSMO-SkyMed   

92

(Istituzione di appartenenza)(art.5, c.1, DM citato)  

(Dipartimento/Istituto/Divisione/Settore)   (posizione)  

0835377218  08353339005  [email protected] 

(prefisso e telefono)   (numero fax)   (indirizzo posta elettronica)  

Referenza Cognome CURLANDER Nome JOHN C. Email [email protected] Istituzione VEXCEL, Los Angeles, CA, USA 

1.3 Curriculum scientifico del Responsabile Scientifico dell'Unità di Ricerca

Giovanni Milillo, Nato nel 1954 a Casamassima (Bari), Italia. Ha studiato presso l’Università di Bari laureandosi in Fisica nel 1983. Dopo la laurea ha svolto attività di ricerca, presso il Dipartimento di Fisica e il Dipartimento di Ingegneria Elettrotecnica ed Elettronica dell’Università di Bari, sull’elaborazione numerica dei segnali ed in particolare su dati di sistemi SAR (Synthetic Aperture Radar). Dal 1986 lavora presso l’Agenzia Spaziale Italiana (ASI) dove ha svolto attività e ricoperto ruoli di responsabilità nel settore OT ed in particolare del segmento terreno: I-PAF (Italian – Processing and Archiving Facility) delle missioni ESA denominate ERS, Il G/S italiano di X-SAR della missione SIR-C/X-SAR. Ha ricoperto ruoli di responsabilità nell’area strategica dell’ASI per le attività di OT. Attualmente in ASI e’ responsabile del segmento terreno per le osservazioni della Terra ed in particolare del programma COSMO-SkyMed. Inoltre e’ responsabile del programma calcolo avanzato.

Giovanni Milillo, was born in 1954 in Casamassima (Bari), Italy. He studied at University of Bari and received the “laurea” degree in physic. After the “laurea “ he was involved in research activities on Digital Signal Processing and in particular on SAR systems. In 1986 he joined ASI (Italian Space Agency) where he was mainly active as responsible of SAR ground segment: I-PAF (Italian – Processing and Archiving Facility) of the ESA ERS missions and Italian X-SAR ground segment of the SIR-C/X-SAR Missions. He had responsible positions in the ASI strategic division for the Earth Observation activities. Now he is the responsible of the Ground Segments for Earth Observations, and in particular of that one for COSMO-SkyMed. Moreover he manage the ASI program of High Performance Computing.

1.4 Pubblicazioni scientifiche più significative del Responsabile Scientifico dell'Unità di Ricerca nº Pubblicazione1. MILILLO G.; ALTRI (1999). La partecipazione italiana alle missioni di telerilevamento a

microonde ALTA FREQUENZA. (vol. Vol. 11 N. 4)  2. MILILLO G.; ALTRI (1995). ERS-1 scatterometer data processing over the mediterranean sea:

algorithm development and validation activity at I-PAFIn ANSKNE Sensors and Environmental Applications of Remote Sensing. ISBN: 90 5410524 0 ROTTHERDAM: Balkema (NETHERLANDS)  

3. MILILLO G.; ALTRI (1994). ERS-1 scatterometer data processing over the mediterranean sea: algorithm development and validation activity at I-PAF EARSel Proceedings of Annual Symposium, Gotemborg.  

4. MILILLO G.; ALTRI (1990). Computational load evaluation for the real time compression of X-SAR raw data SPACE TECHNOLOGY INTERNATIONAL JOURNAL. (vol. Vol 10 n. 4 pp. 189-199)

93

5. MILILLO G.; ATRI (1986). Landsat TM forward/reverse scan banding: characterization and correction INTERNATIONAL JOURNAL OF REMOTE SENSING. (vol. vol. 7, n.4 pp. 557-575)  

1.4.a Titoli scientifici più significativi del Responsabile Scientifico dell'Unità di Ricerca

L’attività scientifica, documentata da oltre 20 pubblicazioni su riviste internazionali e numerose comunicazioni a congressi, riguarda, prevalentemente, il settore del “Signal Processing”, ed in particolare i sistemi di acquisizione e processing dei dati per il telerilevamento. Ha coordinato, pianificato e gestito programmi, studi di fattibilità, rapporti e contratti con gruppi di ricerca nazionali ed internazionali, rapporti con altre agenzie spaziali (NASA, DLR, ESA), rapporti e contratti con industrie nazionali operanti nel settore spaziale (Alenia, Telespazio, Elsag Bailey, SMA, Officine Galileo, Tecnospazio, Tecnomare, IDS, ACS, Vitrociset, Datamat, Dataspazio, Elettronica, Space Engineering, VDS)In particolare, è stato impegnato, in ambito CNR/PSN ed ASI, in diversi programmi nazionali ed internazionali. Tra gli altri, l’I-PAF, il sistema di acquisizione ed elaborazione dei dati ERS, in cui ha partecipato, come responsabile di programma, all’impostazione del sistema di gestione e dei diversi processori (SAR e geocoding dei dati high-rate, scatterometro ed altimetro per i dati low-rate), oltre all’avvio dei contratti industriali con ESA/ESRIN per le operazioni. E’ stato inoltre coinvolto quale responsabile di programma, per le missioni SRL SIR-C X-SAR, all’impostazione e la realizzazione del processore SAR. In questo ambito ha avuto la responsabilità ASI dei progetti tecnologici per la realizzazione dei processori paralleli EMMA ed ACIP (Advanced Computer Imaging Processor) da parte di Elsag-Bailey, Genova e VDS-EidoBrain da parte di VDS, Firenze.Ha curato i rapporti, come responsabile italiano, con ESA per le attività internazionali I-PAF e con NASA (USA) e DLR (Germania) per le missioni SRL.Ha fatto parte della commissione nazionale MURST per il PNR sul calcolo parallelo.Infine, ha organizzato e gestito per conto ASI congressi, workshops, meetings nazionali ed internazionali, corsi di formazione e specializzazione nel settore delle osservazioni della Terra.

The research activity, whose results are reported in more than 20 scientific publications on international journals and several communications is mainly related with the Signal Processing field, and, in particular, with acquisition and processing of remote-sensing data.He has been engaged in the coordination, planning and management of program and feasibility studies, relationships with other space agencies (NASA, DLR, USA), with national companies working in the space field (Alenia, Telespazio, Elsag Bailey, SMA, Officine Galileo, Tecnospazio, Tecnomare, IDS, ACS, Vitrociset, Datamat, Dataspazio, Elettronica, Space Engineering, VDS).In particular, he has been engaged, both with CNR/PSN and ASI, in several national and international programs. Besides that, he was the program manager of the I-PAF, the system for acquisition and processing of ERS data. He has been involved in the design of several processors (SAR and geocoding of high-rate data, scatterometer and altimeter of low-rate data), at the starting of the industrial contracts for ESA/ESRIN operational phase. He has been engaged, as responsible of programs, for SRL SIR-C X-SAR missions, in the start-up and the realization of SAR processor. Inside that, he has been the ASI responsible of ASI technological projects for the realization of EMMA and ACIP (Advanced Computer Imaging Processor) parallel processors for Elsag Bailey, Genova and VDS-Eidobrain for VDS, Firenze.He has been italian responsible, for the I-PAF international relationship with ESA and for the SRL missions with NASA (USA) and DLR (Germany).He has been part of MURST national commission for the parallel computing project.Finally, he has been engaged in the organization and management of several ASI congress, workshops and national and international meetings, training and master courses in the remote sensing field.

1.5 Risorse umane da impegnare nelle attività dell'Unità di Ricerca

94

1.5.1 Personale dipendente dell'Istituzione, sede dell'Unità di ricerca nº Cognome Nome Dipartimento/Istituto/

Divisione/SettoreQualifica Settore sc.

disc. di riferimento

Mesi/uomo Costo (ML)

1. Candela  Laura  Unità O.T. COSMO-SkyMed 

Tecnologo    8  116 (59.91 KEuro) 

2. Loizzo  Rosa  Unità O.T. COSMO-SkyMed 

Tecnologo    8  84 (43.38 KEuro) 

3. MILILLO  GIOVANNI  Unità O.T. COSMO-SkyMed 

Primo Tecnologo 

  8  116 (59.91 KEuro) 

4. Nirchio  Francesco  Unità O.T. COSMO-SkyMed 

Tecnologo    7  78 (40.28 KEuro) 

5. Vespe  Francesco  Unità O.T. COSMO-SkyMed 

Tecnologo    7  78 (40.28 KEuro) 

                 38  472 (243.77 KEuro) 

1.5.2 Personale dipendente di Istituzioni non partecipanti come Unità di Ricerca

nº Cognome Nome Istituzione

Dipartimento/Istituto/Divisione/Settore

Qualifica Settore sc. disc. di riferimento

Mesi/uomo

Costo (ML)

1. Aloisio  Giovanni  Università di Lecce 

DII  Prof. Ordinario 

  6  63 (32.54 KEuro) 

2. Attolico  Giovanni  CNR  IESI (Bari)  Ric. R0 III    3  23 (11.88 KEuro) 

3. Blasi  Euro  Università di Lecce 

ISUFI  Dottorando 

  6  16 (8.26 KEuro) 

4. Bovenga  Fabio  Università di Bari 

Dip. Interateneo di Fisica 

Assegnista   3  8 (4.13 KEuro) 

5. Branca  Antonella  CNR  IESI (Bari)  Ric. R0 I    6  38 (19.63 KEuro) 

6. Cafaro  Massimo  Università di Lecce 

DII  Ricercatore 

  6  27 (13.94 KEuro) 

7. Chiaradia  Maria Teresa 

Università di Bari 

Dip. Interateneo di Fisica 

Prof. Associato 

  3  31 (16.01 KEuro) 

8. Da definire  Da definire 

CNR  IESI (Bari)  Assegnista   5  14 (7.23 KEuro) 

9. De Paolis  Lucio  Università di Lecce 

DII  F. Elab. Dati 

  6  31 (16.01 KEuro) 

10.

Di Lecce  Vincenzo  Politecnico di Bari 

DEE  Ricercatore 

  6  42 (21.69 KEuro) 

11.

Epicoco  Italo  Università di Lecce 

ISUFI  Dottorando 

  6  16 (8.26 KEuro) 

12.

Fiore  Sandro  Università di Lecce 

ISUFI  Dottorando 

  6  16 (8.26 KEuro) 

13.

Giancaspro Antonio  E-Geos  Div. Osservazioni della Terra 

Sistemista    3  60 (30.99 KEuro) 

95

14.

Guerriero  Andrea  Politecnico di Bari 

DEE  Ricercatore 

  6  42 (21.69 KEuro) 

15.

Guerriero  Luciano  Università di Bari 

Dip. Interateneo di Fisica 

Prof. Ordinario 

  3  44 (22.72 KEuro) 

16.

Lovergine  Francsco P. 

CNR  IESI (Bari)  Ric. R0 I    6  38 (19.63 KEuro) 

17.

Marra  Gianpaolo 

Università di Lecce 

DII  Dottorando 

  3  8 (4.13 KEuro) 

18.

Mongelli  Antonio  Università di Lecce 

DII  Ricercatore 

  2  13 (6.71 KEuro) 

19.

Nutricato  Raffaele  Università di Bari 

Dip. Interateneo di Fisica 

Assegnista   6  16 (8.26 KEuro) 

20.

Pasquariello 

Guido  CNR  IESI (Bari)  Ric. R0 V    6  54 (27.89 KEuro) 

21.

Provenzano 

Luciana  Università di Lecce 

DII  Dottorando 

  6  16 (8.26 KEuro) 

22.

Refice  Alberto  Università di Bari 

Dip. Interateneo di Fisica 

Assegnista   3  8 (4.13 KEuro) 

23.

Satalino  Giuseppe CNR  IESI (Bari)  Ric. R0 I    6  38 (19.63 KEuro) 

24.

Veneziani  Nicola  CNR  IESI (Bari)  Ric. R0 VI    6  60 (30.99 KEuro) 

25.

Zuccalà  Alfonso  Università di Lecce 

ISUFI  Dottorando 

  6  16 (8.26 KEuro) 

                    124  738 (381.15 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.2 SI

1.5.3 Titolari di assegni di ricerca (Riservato alle Strutture Universitarie) 

1.5.4 Titolari di borse di studio, borse per Dottorati di Ricerca e ex L. 398/89 art.4 (post-dottorato e specializzazione) (Riservato alle Strutture Universitarie) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

nº Qualifica Tipologia Mesi/uomo Costo (ML)1. Borsista  Contr. triennale per giov. ricerc.   33  90 

(46.48 KEuro) 2. Borsista  Contr. triennale per giov. ricerc.   33  90 

(46.48 KEuro) 

3. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

96

4. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

5. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

6. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

7. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

8. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

9. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

10. Borsista  Contr. triennale per giov. ricerc.   33  90 (46.48 KEuro) 

11. Ricercatore  Contr. triennale per giov. ricerc.   33  209 (107.94 KEuro) 

        363  1.109 (572.75 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali nº Cognome Nome Istituzione Nazione Qualifica Mesi/uomo Costo (ML)1. Fusco  Luigi  ESA-ESRIN  ITALY   Tecnologo  1  30 

(15.49 KEuro) 2. Marchetti  Pier Giorgio  ESA-ESRIN  ITALY   Tecnologo  2  30 

(15.49 KEuro) 

                 3  60 (30.99 KEuro) 

Solo in presenza di apposita convenzione sottoscritta dai legali rappresentanti di entrambe le Istituzioni prima della presentazione della proposta progettuale - Dichiaro l'esistenza di una convenzione per ciascuna persona inserita al punto 1.5.6: SI

1.5.7 Mesi uomo complessivi dedicati alle attività proposte   Numero Mesi/uomo Costo (ML) Spese stages e

missioni all'esteroMLit (K€)

1.5.1 Personale dipendente dell'Istituzione sede dell'Unità di Ricerca

5  38  472 (243.77 KEuro) 

30 (15.49 KEuro) 

1.5.2 Personale dipendente di Istituzioni nazionali non partecipanti come Unità di Ricerca

25  124  738 (381.15 KEuro) 

0 (0.00 KEuro) 

1.5.5 Personale a contratto da destinare a questa specifica proposta progettuale

11  363  1109 (572.75 KEuro) 

0 (0.00 KEuro) 

1.5.6 Personale dipendente di Istituzioni estere o internazionali

2  3  60 (30.99 KEuro) 

0 (0.00 KEuro) 

TOTALE 43  528  2379 (1228.65 KEuro) 

30 (15.49 KEuro) 

97

1.6 Descrizione delle attrezzature già disponibili ed utilizzabili per la ricerca proposta

Anno di acquisizione

Descrizione

1. 1999   3 PC HP LH4 biprocessore 600 MHz 2GB RAM

3 PC HP LH4 dual-processor 600 MHz 2GB RAM  2. 1999   12 nodi UltraSparc 450 MHz cluster Beowolf

12 nodes UltraSparc 450 MHz cluster Beowolf  3. 1999   2 SGI Origin200 con 4 CPU

2 SGI Origin200 with 4CPUs  4. 2000   2 Compaq GS80 multiprocessore

2 Compaq GS80 multiprocessor  5. 2000   Quadrix multiprocessore

Quadrix multiprocessor  6. 2000   Cluster di PC Linux con 20 CPU

Cluster of Linux PCs with 20 CPUs  7. 2001   Cluster di PC Linux con 16 CPU

Cluster of Linux PCs with 16 CPUs  

1.7.a Descrizione delle strumentazioni, attrezzature e prodotti software da acquisire

nº Descrizione Valore presunto (MLit) Percentuale di utilizzoper le attività proposte

     0 (0.00 KEuro) 

  

1.7.b Descrizione delle grandi attrezzature da acquisire nº Descrizione Valore presunto (MLit) Percentuale di utilizzo

per le attività proposte     0 

(0.00 KEuro)   

1.8 Spese complessive dell'Unità di Ricerca Voce di spesa (DM. 199 Ric. del 08/03/01; art.6, c.6) 

Spesa (MLit) Note

Spese di personale (*) 1.270 (655.90 KEuro) 

Costo del personale dipendente dalla UR e da altri enti partecipanti alla ricerca 

Spese generali direttamente imputabili all'attività di ricerca nella misura forfettizzata del 60% del costo del personale (compreso quello relativo ai

1.427 (736.98 KEuro) 

Spese generali dell'attivita' di ricerca calcolate pari al 60% del costo complessivo del personale, inclusi i giovani ricercatori che verrano stipendiati con il

98

ricercatori) contributo FIRB Spese per giovani ricercatori e ricercatori di chiara fama internazionale

1.109 (572.75 KEuro) 

n. 10 borse di studio per giovani ricercatori e n.1 contratto di ricerca triennale (ex. art. 36) 

Spese per l'acquisizione di strumentazioni, attrezzature e prodotti software, limitatamente alle quote impiegate per lo svolgimento dell'attività oggetto del progetto

0 (0.00 KEuro) 

Non e' previsto l'acquisto di strumentazioni con costi a carico di questo progetto 

Spese per stages e missioni all'estero di ricercatori coinvolti nel progetto

30 (15.49 KEuro) 

Spese per missioni all'estero del personale dipendente dell'UR e per stages all'estero dei giovani ricercatori 

Costo dei servizi di consulenza e simili utilizzati per l'attività di ricerca

734 (379.08 KEuro) 

N. 1 consulenza a società e N. 4 Consulenze a persone 

Altri costi di esercizio (ad es. costo dei materiali, delle forniture e dei prodotti analoghi) direttamente imputabili all'attività di ricerca

0 (0.00 KEuro) 

Non sono previsti altri costi con spese a carico di questo progetto 

TOTALE 4.570 (2360.21 KEuro) 

  

(*) = ricercatori, tecnici ed altro personale adibito all'attività di ricerca, dipendente dal soggetto proponente e/o in rapporto subordinato a termine e/o di collaborazione coordinata e continuativa, ivi inclusi dottorati, assegni di ricerca e le borse di studio che prevedevano attività di formazione attraverso la partecipazione al progetto.Incidenza (in %) del costo della UR sul costo totale della proposta progettuale 11 

  MLitCosto complessivo delle attività previste dalla Proposta progettuale per l'Unità di Ricerca 4.570 

(2360.21 KEuro) Fondi disponibili (RD) 1256 

(648.67 KEuro) 

Fondi acquisibili (RA) 14 (7.23 KEuro) 

Finanziamento richiesto al MIUR 2.191 (1131.56 KEuro) 

Finanziamento del MIUR per i contratti triennali 1.109 (572.75 KEuro) 

1.9 Risorse finanziarie già disponibili all'atto della domanda e utilizzabili a sostegno della Proposta ProgettualeQUADRO RD

Provenienza  Anno di assegnazione

Importo disponibile (MLit)

Note

Propri (*) 2000  1256 (648.67 KEuro) 

Stipendi dipendenti ASI, CNR e assimilati, cioe' personale universitario che, in base a specifiche convenzioni, afferisce a istituti CNR o personale dipendente di istituzioni non partecipanti come Unita' di Ricerca, inclusi assegnisti di ricerca, borsisti e dottorandi. L'anno di assegnazione e' da intendere solo come antecedente alla compilazione della domanda. 

99

Pubbliche Amministrazioni

     

EPR (Enti Pubblici di Ricerca)

     

Unione Europea      Imprese      

Fondazioni      Altro (vedi 1.10)      

TOTALE    1256 (648.67 KEuro) 

  

(*) = ad esempio stipendi, assegni di ricerca, borse di studio, dottorati di ricerca, post-dottorato e specializzazione

1.10 Risorse finanziarie acquisibili in data successiva a quella della domanda e utilizzabili a sostegno della Proposta Progettuale nell'ambito della durata previstaQUADRO RA

Provenienza  Anno della domanda o stipula del contratto

Stato di approvazione

Quota disponibile per il programma (MLit)

Note

Propri (ad es. stipendi)

2001  Finanziato   14 (7.23 KEuro) 

Concorso in fase di espletamento 

Pubbliche Amministrazioni

       

EPR (Enti Pubblici di Ricerca)

       

Unione Europea        

Imprese        Fondazioni        

Altro (vedi 1.10)        TOTALE       14 

(7.23 KEuro)   

1.13 Certifico la dichiarata disponibilità e l'utilizzabilità dei fondi di cui ai punti 1.9 e 1.10: SI  

100

Parte III "Le Attività di Ricerca"

3.1 Obiettivi scientifici della proposta Progettuale e risultati attesi

CONTESTO SCIENTIFICO-TECNOLOGICO

Questa proposta progettuale, coordinata dal CNR, si inserisce nel contesto scientifico e tecnologico delle nuove piattaforme di ICT e sistemi distribuiti su larga scala, con l’obiettivo generale di definire, realizzare e sperimentare sistemi e strumenti software innovativi a tutti i livelli, nonché di dimostrarne le capacità mediante alcune applicazioni specifiche.

Questa tematica ha suscitato, negli ultimi anni, un enorme aumento di interesse, non solo negli USA ma anche in Europa come comprovato da diversi progetti, come ad esempio e-science in UK, e dalle azioni comunitarie in preparazione del VI Framework. L’obiettivo di queste nuove tecnologie è di migliorare drasticamente l’impatto delle ICT nel sistema economico, commerciale e industriale, ed anche di giocare un ruolo importante nell’evoluzione delle scienze computazionali.

Notevole è stata, negli ultimi anni, l’evoluzione dei sistemi di calcolo, delle piattaforme distribuite e di Web computing (client-server e peer-to.-peer), dei prodotti di application service e di storage service, degli Enterprise Computing Systems (Corba, Java Beans, DCom, ecc), e delle metodologie di programmazione e di sviluppo applicazioni (oggetti, componenti). All’evoluzione di queste tecnologie, prese singolarmente, non ha però ancora fatto riscontro una adeguate capacità di integrare realmente tali sistemi e servizi eterogenei per soddisfare, a livello scientifico e industriale, le esigenze di applicazioni multidisciplinari in termini di prestazioni (requisiti compute intensive e/o data intensive), sicurezza, affidabilità e qualità del servizio secondo un approccio Open Source / Open Standard.

In altre parole, alle nuove piattaforme ICT è richiesto di supportare, efficientemente e in maniera sicura e controllata, il coordinamento e l’integrazione nelle condivisione delle risorse e nel problem solving in un contesto di Organizzazioni Virtuali scalabili (VO) dinamiche e multi-istituzionali. La caratteristica dei VO (insiemi di individui e/o istituzioni legate dalla necessità di condividere risorse per risolvere un problema complesso) è di essere fortemente dinamici in struttura, forma, durata e composizione: è questo che pone una nuova e strategica sfida alle tecnologie ICT.

Il paradigma, ed al tempo stesso l’infrastruttura, avente come obiettivo il supporto di VO scalabili è, convenzionalmente, chiamato “Grid Computing”.

OBIETTIVI SCIENTIFICI E RISULTATI ATTESI

Questa proposta intende definire, realizzare e applicare soluzioni innovative per piattaforme abilitanti di network computing, orientate a VO scalabili basate sul paradigma Grid, secondo le linee generali indicate in precedenza.

Si tratta di una ricerca interdisciplinare e multidisciplinare, dove la forte componente tecnologica sia informatica che telematica è strettamente coordinata con i requisiti e le esigenze dettate da settori applicativi e delle scienze computazionali. Questo aspetto è di particolare importanza, in quanto sia molte applicazioni che le stesse singole tecnologie ICT potranno beneficiare grandemente della tecnologia per piattaforme abilitanti per Grid, in molti casi subendo una profonda innovazione.

Oltre che sull’aspetto della piattaforma basata su una infrastruttura distribuita, in questa proposta speciale enfasi è posta sul requisito delle elevate prestazioni delle applicazioni sviluppate su Grid. Ciò significa che lo studio dell’integrazione di sistemi e risorse, ed il trattamento dell’eterogeneità e della dinamicità, deve coprire esplicitamente il caso in cui i nodi della Grid, in generale distribuiti su scala geografica o su reti virtuali private, siano sistemi ad alte prestazioni, come macchine parallele o cluster/Beowulf.

101

La ricerca sull’aspetto delle alte prestazioni si estende su tutti i livelli della piattaforma: dalla rete di comunicazione ad alta banda, ai servizi di middleware, ed in particolare la gestione delle risorse, agli strumenti e ambienti di programmazione. La caratterizzazione “seemless” dell’architettura di Grid farà affidamento, oltre che su classiche tecniche baste sul modello client-server, sul modello Peer-to-Peer.

A livello di modello e ambiente di programmazione, il requisiti delle elevate prestazioni implica che, nella progettazione di VO scalabili, viene utilizzato un approccio unificante alla sviluppo di applicazioni, capace di tenere conto sia degli aspetti della distribuzione delle computazioni e delle risorse, che degli aspetti di parallelismo. L’innovazione e l’impatto scientifico e tecnologico è molto forte per quanto riguarda gli strumenti di compilazione ed gli strumenti di middleware: ad essi è infatti demandato il compito di ottimizzare (“personalizzare”) l’implementazione dell’applicazione a seconda delle risorse disponibili, delle prestazioni previste, del livello di granularità, delle funzionalità di trattamento dei dati e meta-dati, del grado di sicurezza e di tolleranza ai guasti desiderato. Se è previsto che certe parti di computazione debbano avere prestazioni particolarmente elevate e siano a grana fine, esse saranno destinate a nodi paralleli, ma senza che il programmatore svolga un ruolo esplicito nella scelta della specifica risorsa di calcolo o che sia responsabile della dicotomia “elaborazione distribuita vs elaborazione parallela”.

L’ambiente di programmazione deve dunque essere caratterizzato da assoluta portabilità attraverso vari tipi di sistemi hardware- software e loro combinazioni in un contesto di eterogeneità e dinamicità: la portabilità deve valere non solo per il codice, ma soprattutto per garantire il livello di prestazioni adeguato alla particolare configurazione del sistema adottata. Fondamentali per l’ambiente di programmazione sono gli aspetti dell’interoperabilità degli strumenti e del riuso di applicazioni ad alte prestazioni.

102

MPP / SMPMPP / SMP Cluster /Cluster /BeowulfBeowulf

CORBA, Java,CORBA, Java,components components ……

GridGrid

e-e-science, science, e-e-engineering applicationsengineering applications

HPC Programming EnvironmentHPC Programming Environment

UniformUniformprogrammingprogrammingmodel,model,

Optimised supportsOptimised supportsfor differentfor differentsubsystems andsubsystems andprotocolsprotocols

La ricerca sulla gestione delle risorse, a livello di middleware, include aspetti della massima importanza come discovery, brokering, scheduling, monitoring e valutazione/predizione delle prestazioni.

Il tema delle reti ad altissima velocità per supportare piattaforme abilitanti di Grid per Vo scalabili è particolarmente sentito a livello internazionale. In questa ricerca, un ruolo importante è svolto dalla sperimentazione di reti ottiche ad altissima banda, con tecnologia fotonica, in piattaforme Grid con siti ad alte prestazioni. Tali siti si estendono su scala metropolitana e, tra i suoi nodi, comprende più macchine parallele o cluster. La ricerca coprirà tutti i più significativi argomenti nell’area delle reti delle reti fotoniche per Grid-computing: architetture, protocolli, ingegneria del traffico e aspetti topologici della rete ottica, con l’obiettivo primario di migliorare le prestazioni e la flessibilità di gestione.

Gli aspetti dell’ambiente di programmazione, della gestione delle risorse a livello middleware, e delle reti ad alta banda permetteranno di studiare e valutare nuovi approcci alla definizione di piattaforme abilitanti complesse per network computing. Queste dovranno essere “caratterizzabili”, in modo flessibile e modulare, in vari ambiti: come casi estremi di interesse ci sono senz’altro i) le griglie computazionali su scala geografica qualsiasi, ii) cluster eterogenei su scala locale e metropolitana. Ma del massimo interesse sono casi intermedi ottenuti mediante loro combinazioni, come appunto griglie di cluster o macchine parallele.

Oltre che sugli aspetti degli ambienti di programmazione e della gestione delle risorse, la tecnologia software oggetto della proposta include alcuni aspetti fondamentali legati al middleware. La base di partenza per la sperimentazione è rappresentata dagli attuali prodotti, in particolare Globus, ma si ritiene indispensabile una forte innovazione in diverse direzioni:* sicurezza: ambienti di Grid sicuri e cooperazione tra ambienti Grid appartenenti a differenti organizzazioni;* servizi data intensive: servizi di “federated” database, visualizzazione e gestione gerarchica dei dati e meta-dati secondo tecniche avanzate ad alte prestazioni;* servizi di knowledge discovery: servizi di Grid (data mining, search engine, etc) che forniscano un accesso consistente, pervasivo ed efficace a risorse computazionali high-end. Di grande interesse sono anche le tecniche per lo sfruttamento della Grid come sofisticato strumento di “Web computing”;* portali per Grid: servizi applicativi Web-enabled, come la possibilità per l’utente di sottomettere e collezionare risultati per i propri job nei confronti di risorse remote tramite una interfaccia Web.

La ricerca sugli ambiente di programmazione è completata dalla definizione e realizzazione di librerie scientifiche in forma adatta alla utilizzazione in un contesto eterogeneo e dinamico come quello delle Grid.

103

Come si vede, gli obiettivi della ricerca definiscono una infrastruttura completa a tutti i livelli di piattaforme abilitanti per griglie computazionali ad alte prestazioni orientate a organizzazioni virtuali scalabili: il livello delle reti di comunicazione ad alta banda, il livello del middleware e servizi, il livello degli strumenti e ambienti di programmazione. Per poter realizzare e sperimentare le idee ed i risultati del progetto, verrà realizzata una infrastruttura di Grid, su scala nazionale, che si appoggia sulla rete GARR e che, a livello di alcuni siti metropolitani, utilizza l’interconnesione in fibra ottica. Questo risultato del progetto mette a disposizione della comunità una Grid nazionale, da utilizzare per la ricerca in diversi settori della scienza computazionale, ma anche in applicazioni commerciali, industriali e di servizio sociali.La proposta comprende lo sviluppo di alcuni dimostratori selezionati in settori applicativi ritenuti del massimo interesse, non solo per il valore scientifico che rivestono di per se, ma soprattutto come test-bed per piattaforme Grid ad elevate prestazioni: * Osservazione della Terra, * Geofisica, * Astronomia, * Biologia, * Chimica Computazionale. Le applicazioni in questi settori, ritenute universalmente tra le più significative per mettere alla prova la tecnologia delle nuove piattaforme ICT, hanno un chiaro impatto, industriale e sociale, sull’utilizzazione strategica delle nuove piattaforme ICT, come ad esempio nel controllo ambientale e prevenzione di disastri, climatologia e vulcanologia, genomica e neuroscienze, farmacologia, salute, robotica, produzione di materiali, ecc.

WORKPACKAGES DEL PROGETTO E SINTESI DEI RISULTATI ATTESIGli obiettivi scientifici sopra esposti si concretizzano nella definizione dei Workpackages (WP) della proposta progettuale, ognuno dei quali è caratterizzato da un ben determinato risultato atteso. Nel seguito, per ogni risultato atteso è indicata (tra parentesi) la percentuale di effort nel contesto dell’intero progetto.

Al livello delle Reti ad Elevate Prestazioni sono attesi i seguenti risultati:· WP1. Grid Oriented Optical Switching Paradigms (7%)· WP2. High Performance Photonic Testbed (12%)

Al livello del Middleware sono attesi i seguenti risultati:· WP3. Grid Deployment (3%)· WP4. Security (3%)· WP5. Data Intensive Core Services (2%)· WP6. Knowledge Services for Intensive Data Analysis, Intelligent Searching, and Intelligent Query Answering (10%)· WP7. Grid Portals (3%)

Al livello degli Strumenti e Ambienti di Programmazione sono attesi i seguenti risultati:· WP8. High-performance Component-based Programming Environment (16%)· WP9. Grid-enabled Scientific Libraries (7%)

Al livello dei Dimostratori Applicativi sono attesi i seguenti risultati:· WP10. Grid Applications for Astrophysics (7%)· WP11. Grid Applications for Earth Observation Systems Application (10%)· WP12. Grid Applications for Biology (6%)· WP13. Grid Applications for Molecular Virtual Reality (6%)· WP14. Grid Applications for Geophysics (4%)

Infine, è previsto il WP15 per la Gestione del Progetto (1%).

Nella sezione 3.3. della proposta verrà dettagliata la struttura dei WP secondo un certo numero di Attività, specificando i risultati attesi in dettaglio.

Occorre osservare che nell’effort dedicato ad alcuni WP, in particolare quelli relativi alla realizzazione della infrastruttura middleware di Grid (WP3, WP4, WP5, WP6, WP7), è valutata solo la parte originale di ricerca rispetto allo stato dell’arte. L’effort per la realizzazione della parte infrastrutturale, come il dispiegamento della prima versione della Grid che verrà usata per le sperimentazioni del progetto, non è incluso in quanto le risorse e le attrezzature hardware-software necessarie sono in gran parte già disponibili presso i Centri del progetto.

104

RISULTATI ATTESI E REALIZZAZIONI PROTOTIPALI INNOVATIVEOgni WP produrrà metodologie, sperimentazioni e valutazioni, e un prototipo innovativo dell’oggetto del WP stesso. In particolare, le realizzazioni prototipali innovative riguarderanno:* infrastruttura di Grid a livello nazionale (WP3),* suite di servizi di Middleware integrati (WP4, 5, 6, 7),* rete metropolitana ad elevate prestazioni con tecnologia fotonica (WP2),* ambiente di programmazione a componenti a elevate prestazioni (WP8),* suite di librerie scientifiche integrate per Grid (WP9),* dimostratori su Grid nei settori applicativi della proposta (WP10, 11, 12, 13, 14).

ADERENZA DEGLI OBIETTIVI DELLA PROPOSTA CON LE TENDENZE INTERNAZIONALIGli obiettivi di questa proposta progettuale sono perfettamente in linea con, e danno significativi contributi originali a, quelli delle più avanzate iniziative a livello internazionale, sia a livello europeo che mondiale. In particolare, la proposta prevede gli obiettivi a medio-lungo termine enunciati dalla Commissione Europea su “Large-scale Distributed Systems and Platforms, includine GRID-based Systems” (maggio 2001).La struttura di coordinamento ha verificato le idee del progetto con i principali responsabili delle iniziative in Europa e USA e nell’ambito del Global Grid Forum che integra i Grid forum europei (dove è molto attiva la partecipazione italiana), del Nord America e dell’Asia-Pacifico.Il Comitato Guida del progetto includerà tre esperti internazionali.

COLLABORAZIONI INTERNAZIONALI E PARTECIPAZIONE INDUSTRIALELe attività di tutte le Unità di Ricerca si svolgono nell’ambito di diverse collaborazioni con prestigiose istituzioni di ricerca internazionali operanti nel settore (si vedano le schede delle singole UR). Alcune UR includono personale di istituzioni estere o internazionali (ISTI, CNIT, ASI).Alle attività di tutte le UR partecipano o collaborano aziende ad alta tecnologia, in particolare e-GEOS e Telespazio (ASI), Marconi (CNIT), Datamat (INFN), Synapsis (ISTI), oltre a diverse PMI.

MESSA IN RETE DI CENTRI DI ALTA QUALIFICAZIONESi veda la sezione 1.2.b.

COORDINAMENTO CON ALTRE PROPOSTE FIRBIl progetto è coordinato nelle linee generali strategiche con la proposta del CNIT su reti wireless, allo scopo di verificare l’applicabilità delle piattaforme Grid alle future infrastrutture wireless.

FORMAZIONEUna quota rilevante (23%) del costo del progetto è riservata a contratti a giovani ricercatori, alcuni dei quali per giovani attualmente operanti all’estero.Questa proposta intende svolgere un ruolo importante nella formazione di giovani aventi figure professionali ad alta qualificazione sulla tecnologia delle piattaforme abilitanti e sullo sviluppo di applicazioni multidisciplinari in VO scalabili. In particolare, oltre che un certo numero di ricercatori da inserire nei Centri di Alta Qualificazione, si intende soprattutto formare tecnici e progettisti di elevato livello tecnologico e di elevata professionalità, favorendo la nascita e/o il potenziamento di strutture industriali e spin-off operanti in stretto contatto con i centri di eccellenza su progetti avanzati e sulle relative applicazioni.

TECHNOLOGICAL AND SCIENTIFIC CONTEXT

This project proposal, coordinated by the National Research Council (CNR) is defined within the scientific and technological context of new ITC platforms and of large scale distributed systems. The goal is to study, to realize and to experiment systems and software tools that turn out to be innovative at all levels, as well as to demonstrate their capabilities through some specific applications.

During the last years, this research track originated a large interest grown, not only in USA but also in Europe, as proved by different research projects, e.g. the e-science project in UK or the European Community actions in the VI Research Framework. These new technologies are aimed at drastically improving the impact of ICT in the economics, commerce and industry, as well as to play an important role in the evolution of computational sciences.

105

In the last years there have been large improvements in computer systems, in distributed platforms, in WEB computing (client/server and peer-to-peer), in application service and storage service products, in Enterprise Computing Systems (CORBA, Java Beans, Dcom, etc.) and in the programming and development technologies (objects, components). Despite the results achieved in all these fields, the ability to actually integrate these technologies in such a way that the requirements of multidisciplinary applications (either compute or data intensive) did not grow consequently: these requirements concern performance, security, reliability and quality of service, according to an Open Software / Open Standard approach, are satisfied,.

In other terms, new ITC platforms are required to support, efficiently and in a secure and controlled way, resource sharing and integration in a scalable Virtual Organization (VO) context. VOs (sets of individuals or organizations that need to share resources to solve a given complex problem) have a strong dynamic structure, form, lasting and composition: this poses new strategic challenges to ITC technology. The paradigm and the infrastructure having scalable VO as the main target is usually called “GRID computing”.

SCIENTIFIC GOALS AND EXPECTED RESULTS

This proposal is aimed at defining, implementing and applying innovative solutions for network computing enabling platforms, oriented towards scalable VOs based on the GRID paradigm, according to the general guidelines discussed above.

It is an interdisciplinary and multidisciplinary research, where the strong technological component, related to both computer science and telecommunications, is strictly coordinated to the requirements and needs dictated by the applicative fields and by computational sciences. This aspect is particularly important as many applications, and ITC technologies as well, will significantly benefit from GRID enabling technology and will be, in some cases, definitely improved.

Ahead of the distributed platform based on a distributed infrastructure aspect, in this proposal a special emphasis is placed on the high performance requirement of the applications developed on GRID. This means that the study of the integration of systems and resources, as well as heterogeneity and dynamic situations management, must explicitly handle the case of GRID nodes (which in general geographically distributed or placed on private virtual networks) being high performance systems, such as parallel machine architectures or (Beowulf) clusters.

The research on high performance extends to all the platform levels, from high bandwidth network to middleware services, and, in particular, resource management, as well to tools and programming environments.

Research on all these levels is also characterized by the fault tolerant implementation techniques used, as well as by quality of service. The seamless characterization of GRID architecture will rely on techniques based on the peer-to-peer model, in addition to techniques based on the classical client/server model.

At the programming model and environment level the high performance requirement implies that, in the design of scalable VOs, a unifying approach in the development of application should be used. Such approach is able to take into account both the aspects related to the distribution of computations and resources, and of those related to parallelism. The novelty and the scientific and technological impact is very strong as far as the compiling tools and the middleware tools are concerned. The task of optimize (“personalize”) the application implementation (i.e. establishing the proper granularity level, data and meta data handling, the security and fault tolerance degree) is demanded to such tools. We also suppose that the fine grain applications portions needing significantly high performance are automatically mapped to parallel nodes, without forcing the programmer to play any explicit role in the choice of the computer resources to be used nor having the programmer to decide whether a distributed computation or a parallel computation approach has to be adopted.

106

The programming environment must therefore be characterized by absolute portability on different hardware-software systems (or different hardware-software combinations) in a heterogeneous and dynamic context. Portability must be guaranteed not only for code: portability must mainly ensure that the performance matches the configuration of the target system at hand. Fundamental to the programming environment are tool interoperability and high performance application reuse.

The research on resource management, at middleware level, includes aspects of maximal importance as discovery, brokering, scheduling, monitoring and performance evaluation/prediction.

High speed networks needed to support enabling GRID platforms for scalable VOs is an internationally recognized “hot” topic. Within this research activity an important role is played by experiments on very high bandwidth optical networks, based on photonic technology for GRID platforms with high performance sites. High performance sites extend to metropolitan area and, among its nodes, include different parallel machines or clusters. Our research will coved all the most significant aspects in the field of photonic networks for GRID computing, architectures, protocols, traffic engineering, topological aspect of optical network with the main goal of improving performance and management flexibility.

107

UniformUniformprogrammingprogrammingmodel,model,Optimised supportsOptimised supportsfor differentfor differentsubsystems andsubsystems andprotocolsprotocols

MPP / SMPMPP / SMPCluster /Cluster /BeowulfBeowulfCORBA, Java,CORBA, Java,components components …… GridGrid

e-e-science, science, e-e-engineering applicationsengineering applicationsHPC Programming EnvironmentHPC Programming Environment

The aspects of the programming environment, resource management at the middleware level and high bandwidth networks will stimulate new approaches to the definition of complex enabling platforms for network computing to be studied and evaluated. The features of such architectures must be provided in a flexible and modular way, in different contexts: extremely interesting cases are represented by i) generic, geographical scale computational GRIDs, and ii) heterogeneous local or metropolitan scale. On the other hand intermediate cases obtained by combining the two cases, e.g. grids of clusters or parallel machines, are very interesting as well. Beyond the aspects concerning programming environments and resource management, the software technology studied in this proposal includes some fundamental aspects related to Middleware. The starting point for experiments is represented by the existing technology, in particular Globus. However, we aim to achieve a strong innovation in several aspects:

* security: secure GRID environments and cooperation among GRID environments belonging to different organizations;

* data intensive services: federated database services, visualization and hierarchical management of data and meta-data according to advances and high-performance techniques;

* knowledge discovery services: GRID services (data mining, search engines, etc.) that provide consistent, efficient and pervasive access to high end computational resources. The techniques aimed at exploiting GRID as a sophisticated “WEB computing” tool are also of great interest;

* GRID portals: GRID enabled applicative services, e.g. the possibility provided to the user to submit tasks and collect results to remote jobs via WEB interface.

The design and implementation of scientific libraries suitable to be used in an heterogeneous and dynamic context, such as the one of GRID, completes the research on programming environments.

As we can see, the goals of the research define an infrastructure complete w.r.t. all the levels of the high performance GRID enabling platforms for scalable VOs: the high bandwidth network level, Middleware and

108

service level, tools and programming environment level. In order to be able to implement and experiment the ideas and the results of the project, a GRID infrastructure will be implemented, on a national scale, based on the GARR network and using, in some metropolitan sites, optical fiber interconnection. This project result provides the community with a national GRID to be used in different computational science research sectors, and also for commerce, industrial and social service applications.

The proposal includes the development of some demonstrators selected within applicative fields that are of maximum interest, not only for their scientific value, but also as testbeds for high performance GRID platforms:

* Earth observation

* Geophysics

* Astronomy

* Biology

* Computational chemistry

The applications in these fields, universally recognized as the most significant to be used to demonstrate the technology of new ITC platforms, have a clear industrial and social impact on the strategic usage of new ITC platforms, e.g., environment monitoring and disaster prevention, climate modeling, vulcanology, genoma problems, neuro science, pharmacology, health systems, robotics, material production, etc.

WORKPACKAGES OF THE PROJECT AND SYNTHESIS OF THE EXPECTED RESULTS

The scientific goals described above allow the definition of the workpackges (WP) of this project proposal. Every workpackage is characterized by a well defined expected result. In the following, for each expected result we give (in parenthesis) the percentage of the total effort within the project:

At the level of High Performance Networks, the expected results are:

· WP1. Grid Oriented Optical Switching Paradigms (7%)

· WP2. High Performance Photonic Testbed (12%)

At the Middleware level, the expected results are :

· WP3. Grid Deployment (3%)

· WP4. Security (3%)

· WP5. Data Intensive Core Services (2%)

· WP6. Knowledge Services for Intensive Data Analysis, Intelligent Searching, and Intelligent Query Answering (10%)

· WP7. Grid Portals (3%)

At the level of Programming Tools and Environment we expect the following results:

· WP8. High-performance Component-based Programming Environment (16%)

109

· WP9. Grid-enabled Scientific Libraries (7%)

At the level of Applicative Demonstrators, we expect the following results:

· WP10. Grid Applications for Astrophysics (7%)

· WP11. Grid Applications for Earth Observation Systems Application (10%)

· WP12. Grid Applications for Biology (6%)

· WP13. Grid Applications for Molecular Virtual Reality (9%)

· WP14. Grid Applications for Geophysics (4%)

Finally, we planned a WP15 to host coordination, training, education and result dissemination.

In Section 3.3 we will detail the workpackage structure as a set of Activities, furtherly specifying the expected results.

It’s worth pointing out that the effort dedicated to some WPs, in particular those concerning the implementation of the middleware infrastructure of the GRID (WP3, WP4, WP5, WP6, WP7) is only evaluated as far as the original research activity w.r.t. the state-of-the-art is concerned. The effort needed to implement the infrastructure, e.g. the deployment of the first GRID version used to perform experiments within this project, is not included as the resources and the hardware and software resources needed are mostly already available at the project Centres.

EXPECTED RESULTS AND INNOVATIVE PROTOTYPING REALIZATIONS

Each WP will produce methodologies, experiments and evaluations, and an innovative prototype of the WP subject. In particular, the innovative prototyping realizations will concern:

* Grid infrastructure at the national level (WP3),

* suite of integrated Middleware services (WP4, 5, 6, 7),

* high-performance Metropolitan network with photonic technology (WP2),

* high-performance component-based programming environment,

* suite of integrated Grid-enabled scientific libraries,

* Grid demonstrators in the application fields of this proposal (WP10, 11, 12, 13, 14).

MATCHING OF PROPOSAL GOALS AND INTERNATIONAL TRENDS

The goals of this project proposal are perfectly in line with the more advanced international initiatives, and will give original contributes to them, both at European and at worldwide level. In particular, the proposal covers medium to long term goals stated by European Commission on “Large-scale Distributed Systems and Platyforms, includine GRID-based Systems” (May 2001). The coordination structure verified the project ideas with the main responsibles of European and American initiatives and within the Global GRID Forum, the strucure integrating European GRID forums (with a very active Italian participation), North America and Asiatic/Pacific GRID forums.

110

The project Steering Committee will include three international experts.

INTERNATIONAL COLLABORATIONS AND INDUSTRIAL PARTICIPATION

The activities of all the Research Units include several collaborations with prestigious international research institutions in this area (see the presentations of the RUs). Some RUs include researchers of foreign or international institutions (IST, CNIT, ASI).

High technology industries participate or collaborate with all the UR, in particular e-GEOS and Telespazio (ASI), Marconi (CNIT), Datamat (INFN), Synapsis (ISTI), and several small-medium enterprises.

NETWORKS OF HIGH QUALIFICATION CENTRES

See section 1.2.b.

COORDINATION WITH OTHER FIRB PROPOSALS

This project is coordinated, on the general strategic lines, with the CNIT proposal on wireless networks, in order to verify the applicability of the Grid platforms also to future wireless infrastructures.

TRAINING/EDUCATION

A relevant part (23%) of the project cost is reserved to contracts for young researchers, some of them currently working abroad.

This proposal is aimed at playing an important role in the training of highly qualified young people with professional knowledge on enabling platforms and on multidisciplinary application development for scalable VOs.

In particular, in addition to a certain number of researchers that will be inserted in the High Qualification Centers, we want to prepare technicians and designers of high technological level, as well as having very high professional quality, supporting the sturt-up of new industrial entities (spin-off) and/or the improvement of existing ones operating strictly in contact with the excellence centers on advanced projects and relative applications.

3.2 Base di partenza scientifica nazionale o internazionale

Il presente progetto è in linea con altri programmi e azioni che attualmente vengono condotte nel mondo, e in particolare, in Europa. Questa sezione è divisa in due parti. La prima è dedicata alla presentazione di alcune delle più significative iniziative relative alle Griglie Computazionali (o a loro strettamente correlate), a partire da quelle Italiane. La seconda parte di questa sezione presenta alcune delle più interessanti tecnologie, possibili oggetto di studio in questo progetto.

--- PARTE I ---

111

L’interesse per le griglie computazionali è in rapida ascesa in Italia. Questo è dimostrato dal crescente numero di progetti che operano in questo settore. Nel seguito descriveremo alcuni di questi progetti in corso su cui lavorano due dei principali enti di Ricerca italiani: Il CNR e l’INFN.

Attività al CNRLe attività inerenti le griglie computazionali in cui il CNR è coinvolto sono una naturale ricaduta del progetto PQE2000. Questo progetto, iniziato alla fine del 1995, raggruppava importanti gruppi di ricerca appartenenti a tre enti di Ricerca (CNR, ENEA, INFN) e una industria (Quadrics Supercomputer World Ltd). Dalla esperienze maturate in tale progetto, sono nati i seguenti progetti:

-Computational Grids and Applications: questo progetto, coordinato dal CNR, raggruppa 13 gruppi di ricerca appartenenti al CNR (4), Università (8), e altri enti di Ricerca. Rappresenta il primo passo verso la creazione di una sensibilità a livello nazionale verso la tecnologia delle griglie computazionali; Durata del progetto: 1 anno; Finanziamento 410Keuro; Stato: approvato dal CNR (giugno 2001).-GRID Computing - Enabling Technologies and Applications for E-Science: questo progetto, coordinato dal CNR, coinvolge 20 gruppi di ricerca appartenenti a: CNR (10), Università (6), Amministrazione Pubblica (2), e Industria (2). Lo scopo principale di questo progetto è studiare, valutare, ed utilizzare la tecnologia delle griglie computazionali per lo sviluppo di una nuova generazione di applicazioni scientifiche e commerciali. Uno scopo ulteriore è la crescita di esperienze su questo soggetto di ricerca, con ricadute positive sul mondo della ricerca, sui fornitori di servizio e gli utenti finali. Durata: 2.5 Anni; Finanziamento richiesto: 2MEuro. Stato: approvato dal Ministero italiano per la Ricerca (settembre 2001) (Finanziamento: 400 K€) -ASI-PQE2000: questo progetto finanziato dall’Agenzia Spaziale Italiana (ASI) rappresenta il risultato di uno sforzo congiunto fra partner accademici ed industriali italiani coordinati dal Dipartimento di informatica dell'Università di Pisa. I principali obiettivi del progetto riguardano la definizione dell’ambiente di programmazione ASSIST (A Software development System based on Integrated Skeleton Technology). Solamente una parte di questo progetto riguarda specificamente le griglie computazionali; in particolare, un work package riguarda le specifiche per l’estensione di ASSIST a piattaforme eterogenee di tipo griglia. Durata: 2 Anni. Finanziamento: 2Meuro. Stato: approvato da ASI (dicembre 2000). -DataGrid: CNR è partner associato nel Progetto DataGrid, un progetto recentemente approvato dalla Commissione Europea e coordinato dal CERN. Il CNR è responsabile delle attività di sfruttamento e dissemination dei risultati. Durata: 3 Anni. Stato: primo Anno di attività.

Attività all’INFN Da due anni a questa parte, INFN è coinvolto in progetti nazionali ed internazionali riguardanti le griglie computazionali col principale obiettivo di studiare, progettare e valutare l’uso di griglie dati e computazionali per nuovi esperimenti di larga scala (LHC, Virgo, BABAR, ecc.) che coinvolgono la comunità internazionale dei fisici.-Il progetto DataGrid, finanziato dalla Comunità Europea, vede coinvolto INFN come uno dei 6 partner principali, focalizzato sullo sviluppo di servizi di middleware per griglia su Globus. Importanti servizi che saranno forniti per la fine del 2001 sono uno scheduler per griglia, uno strumento per la gestione degli accessi sicuri , uno strumento per lo spostamento e la replicazione dei dati, strumenti per il monitoring della rete.-INFN-GRID è un progetto sovvenzionato da INFN con lo specifico scopo del deployment di una Griglia nazionale che utilizzi i servizi sviluppati in DataGrid.-DataTAG in Europa, progetto finanziato dalla Comunità Europea dove INFN è uno dei 4 partner principali, e l'iVGDL negli USA sono due progetti correlati aventi l'obbiettivo di definire un testbed di Griglia mondiale dove applicazioni differenti possono essere eseguite con la garanzia della compatibilità tra le Griglie transatlantiche.-GriPhyN e PPDG sono progetti americani simili, dedicati principalmente alla definizione di architetture di griglia, modelli di dati, e servizi di middleware per esperimenti di HEP.INFN è inoltre rappresentato nel coordinamento mondiale delle attività inerenti le griglie, creato allo scopo di garantire la definizione di architetture coerenti e interoperabili negli sviluppi risultato dei progetti inerenti le griglie.

La Situazione Europea I progetti Europei menzionati in questa sezione sono finanziati dalla Comunità Europea all’interno del Programma: Tecnologie per la Società dell’Informazione - Linea di Azione GRID. Lo scopo di questa azione è di promuovere ed incoraggiare all’interno della Comunità Europea lo sviluppo, il deployment, la sperimentazione, e l’integrazione di Griglie computazionali al fine di farle diventare uno strumento per aumentare la competitività Europea nel campo della ricerca, dell’industria, degli affari. Le attività sono focalizzate su:

112

-Deployment e utilizzazione di testbed per lo sviluppo progressivo di servizi completi su griglia attraverso l’integrazione e la realizzazione dei componenti più importanti come le tecnologie di rete (routers, protocolli, ecc..), il middleware (sicurezza, autenticazione, autorizzazione, schedulazione delle risorse, accounting, ecc.), e le applicazioni. Questi testbed devono essere valutati nel contesto di applicazioni complete di larga scala per capire e valutare appieno i problemi di realizzazione, come pure quelli sociologici e organizzativi. I risultati dovrebbero aiutare a costruire gradualmente un'infrastruttura unica per l'accesso trasparente ai dati ed alle risorse di calcolo (ubiquitous computing e ubiquitous data access).- Sviluppo di toolkit per Griglia e di piattaforme hardware e software che assicurano prestazioni, scalabilità, e usabilità delle soluzioni sviluppate. - Interoperabilità tra differenti testbed di griglie, promozione di standard e di componenti riusabili di elevata utilità, sfruttamento delle risorse comunitarie per eliminare le barriere che si possono frapporre al deployment.

Le iniziative in UK Fra le iniziative europee sul campo delle griglie, l'esperienza inglese è notevole e degna di nota. Nell’ottobre 2000, il governo inglese ha annunciato un programma di 98M£ in 3 anni per lo sviluppo ed il dispiegamento di tecnologie basate su griglia per affrontare e risolvere le sfide computazionali emergenti in parecchi settori delle scienze fisiche e biologiche. La motivazione dietro questa decisione è che, oggi, la scienza pone alcune delle sfide importanti che costituiscono la frontiera per lo sviluppo della prossima generazione di sistemi distribuiti. Si ipotizza che, proprio come avvenuto con il Web, le soluzioni a queste sfide troveranno rapidamente applicazione nel mondo commerciale. Sostenendo gli sviluppi della realizzazione di sistemi commercialmente utili, il Governo inglese ha iniziato un programma specifico su e-science, finanziato con £ 118 milioni in tre anni, a cui vanno sommati fondi extra per migliorare la rete accademica. Il programma è stato diviso in due sezioni principali, 74M£ assegnati a enti di ricerca inglesi per affrontare i problemi scientifici per la cui soluzione possono essere utilizzate griglie. I settori individuati includono:- Fisica delle particelle, con flussi di dati dell’ordine dei petabyte e i grandi problemi conseguenti di memorizzazione e trasferimento dei dati.- Genomica, con le enormi basi di dati del genoma umano, e dove la visualizzazione e l'interoperabilità sono fattori cruciali.- Cambiamenti clima, dove la modellazione con molte variabili è particolarmente importante.- Progetto di sistemi nel campo delle scienze ingegneristiche.

La seconda parte del programma inglese (35M£) riguarda ‘Core e-science’, e sarà diretto da uno degli enti di ricerca inglesi a nome dell'intera comunità scientifica. Ci si aspetta che il programma attragga almeno 20M£ di finanziamenti industriali. Questo programma investirà principalmente in tecnologie correlate, reti scalabili, ambienti condivisi, metadati, accesso/sicurezza, ecc. Esso dovrà operare con forti relazioni con la prima parte applicativa, imparare da essa, fornire ad essa nuova tecnologia, e disseminare i migliori risultati tra le varie discipline. Gli avanzamenti nei campi applicativi spingeranno le tecnologie e viceversa. Il programma avrà anche lo scopo di coordinare gli sforzi con quanto parallelamente sviluppato a livello internazionale. È infatti essenziale che il programma inglese si integri con gli sforzi europei e mondiali nello stesso settore. Il programma sarà quindi attivamente coinvolto nello stabilire collaborazioni internazionali. Parallelamente a questi sviluppi, la rete accademica inglese, JANET, è stata decisamente migliorata. La dorsale (JANET Super) è stata portata a 2.5 Gbit/s, con l’obiettivo di arrivare a 20 Gbit/s nel 2002. Le reti metropolitane e locali sono anch’esse state potenziate e sono stati aumentati i finanziamenti per le infrastrutture alle università per permettere analoghi potenziamenti delle reti interne.

Iniziative mondiali di Grid Computing

Attualmente c’è un vasto numero di progetti e di approcci al grid computing che spaziano dal metacomputing ai testbed applicativi, dagli ambienti di steering e workflow interattivi ai classici sistemi batch. In questa sezione, per ragioni di spazio, vengono presentati solo alcuni dei più significativi progetti di grid computing, rappresentativi di altrettanti approcci tecnologici. I progetti che vengono brevemente descritti sono:

- Europa: DataGrid, DAMIEN, EUROGRID, UNICORE- USA: Globus, Legion, NASA IPG e NetSolve.- Asia/Pacifico: Ninf.- Australia: Nimrod/G.

DATAGRID

113

Come già accennato in precedenza a riduardo dello INFN, l’obiettivo di questo progetto, finanziato dalla comunità europea, è quello di rendere possibile esplorazioni scientifiche di prossima generazione, richiedenti intense fasi di calcolo e di analisi su enormi data base della dimensione delle centinaia di terabyte sino ai petabyte. Queste non solo solo necessità espresse della comunità della Fisica ma interessano anche altri settori quali, biologia, osservazione della terra, ecc.. Stato del progetto: Attivo.

DAMIEN (Distributed Applications and Middleware for Industrial Use of European Networks Coordinator)L’obiettivo del progetto DAMIEN è lo sviluppo di building block per la realizzazione di middleware per applicazioni di simulazione e visualizzazione distribuita. Oltre che ad una libreria di comunicazione multiprotocollo per reti eterogenee DAMIEN include anche capacità di qualità del servizio. Un’interfaccia permette di facilitare il “coupling” di applicazioni distribuite. Inoltre, sono forniti strumenti per l’analisi e la predizione delle prestazioni necessari per la messa apunto di applicazioni distribuite. Due applicazioni industriali rappresentano “test case” reali per lo sviluppo di software e servizi middleware. Stato del progetto: Attivo.

EUROGRIDQuesto progetto è di tipo RTD (Research and Technology Development) finanziato dal programma Information Society Program (IST) per il periodo Novembre 2000 – Ottobre 2003. L’obiettivo primario di EUROGRID è quello di creare una GRID europea mettendo a comune le risorse hardware e software presenti in differenti centri di High Performance Computing d’Europa. Nell’ambito di questo progetto verranno effettuate delle dimostrazioni di simulazioni distribuite in differenti aree applicative (Biologia e Biochimica, Previsioni meteo, Computer Aided Engineering, Analisi Strutturale, elaborazioni real-time). Stato del progetto: Attivo.

UNICORE (Uniform Interface to Computer Resources)Questo progetto è stato finanziato dal Ministero dell’Educazione e della Ricerca tedesco. UNICORE è stato sviluppato da un consorzio tedesco composto da università, laboratori di ricerca, industrie software e produttori di elaboratori. Il progetto, avviato nel 1999 come un progetto di due anni, è stato recentemente rimodulato e finanziato per altri tre anni. L’obiettivo primario di UNICORE è fornire un’interfaccia semplice e uniforme per la preparazione, la sottomissione e il controllo di job inviati una griglia computazionale composta dalle risorse dei centri di supercalcolo tedeschi. Stato del progetto: Attivo.

GLOBUSGLOBUS fornisce una infrastruttura software che abilita applicazioni a gestire risorse di calcolo distribuite eterogenee viste come un’unica ed uniforme macchina virtuale. Questo progetto, che oggi rappresenta una delle più importanti realtà di questo settore, nasce da ricerca finanziata dalle principali agenzie di ricerca statunitensi, coinvolge numerose istituzioni accademiche e ricerca governative. Elemento fondamentale di questo progetto, il cui principale obiettivo è la creazione di tecnologie abilitanti per la costruzione di griglie computazionali, è il Globus Metacomputing Toolkit (GMT). GMT definisce i principali servizi di base di una grid (sicurezza, gestione delle risorse, comunicazione, ecc.). Requisito importante per una griglia computazione è quello di supportare un’ampia varietà di applicazioni e modelli di programmazione. Quindi, GMT non fornisce un unico ed uniforme modello di programmazione per grid (come, ad esempio, il modello object-oriented) bensì un insieme di servizi (definito “bag of services”) che possono essere usati dagli sviluppatori di specifici strumenti o applicazioni per grid. Globus ha un’architettura a livelli, secondo la quale gli strumenti dei livelli superiori sono costruiti mediante l’utilizzo di “core services” forniti dai livelli inferiori.

LEGIONLEGION è un sistema di metacomputing, basato su tecnologia object-oriented, sviluppato presso l’Università della Virginia. Questo progetto fornisce una infrastruttura software che permette agli utilizzatori di “vedere” un sistema composto da risorse eterogenee, distribuite geograficamente, come un’unica e coerente macchina virtuale. In LEGION ogni cosa è un oggetto. Gli oggetti rappresentano tutte le risorse, sia hardware (ad esempio, un supercalcolatore) che software (ad esempio, un database o una applicazione). In questo progetto, l’interazione tra oggetti è definita mediante l’uso di API che rende trasparente all’utente sia il linguaggio di programmazione che i protocolli di comunicazione sottostanti.

NASA Information Power Grid (IPG)Tra le istituzioni statunitensi, la NAS System Division è stata tra le prime a capire l’importanza delle griglie computazionali e a crearne una per attività di ricerca e di progettazione all’interno della NASA. Per questo è stato definito un testbed composto dalle principali risorse di calcolo, memorizzazione e visualizzazione della NASA affinchè le sempre maggiori necessità computazionali espresse da ricercatori e progettisti risultino sempre soddisfatte. Uno dei punti di forza di IPG è creare una visione comune e aggregata delle risorse

114

computazionali disponibili, senza però limitare a vincolare i gradi di autonomia locale dei singoli centri componenti.

NetSolveNetSolve è un sistema client/server, basato su RPC, progettato per risolvere problemi di Computational Science caratterizzati da pesanti necessità computazionali. Questo sistema utilizza elaboratori connessi mediante LAN o WAN. Le applicazioni clienti, che possono essere sviluppate in C, Fortran e Matlab, sfruttano il web per comunicare con i sistemi serventi. Un servente NetSolve può essere un qualsiasi elaboratore in grado di mettere a disposizione qualsiasi pacchetto scientifico visto come risorsa a disposizione dei clienti. NetSolve ha la capacità di individuare le risorse computazionali necessarie tra quelle presenti nella rete e di scegliere quelle che meglio si prestano a risolvere un dato problema, fornendo una risposta all’utente nel minor tempo possibile. Affinchè siano garantite prestazioni accettabili, NetSolve adotta opportune politiche di bilanciamento del carico usando le risorse computazionali meno cariche tra quelle disponibili al momento.

NINFQuesto sistema è molto simile a NetSolve. E’ infatti anch’esso un sistema client/server, basato su RPC. In NINF, le applicazioni cliente possono, in maniera semi-trasparente, accedere risorse computazionali remote invocando chiamate a procedure remote dall’interno di applicazioni scritte in C, Fortran, ecc. Un programmatore può costruire una applicazione per grid in maniera relativamente semplice e trasparente, usando le librerie remore messe a disposizione da NINF, viste come componenti riusabili presenti nella griglia.

--- FORUM PER LA STANDARDIZZAZIONE IN AMBITO GRID ---

Per stimolare collaborazioni e ricerche di base sulle tecnologie relative al grid computing, la comunità scientifica internazionale ha costituito alcuni importanti forum internazionali, in particolare, Grid, eGrid e, più recentemente, Global Grid Forum (GGF). Queste iniziative intendono “armonizzare e standardizzare” gli approcci e metodologie nel settore del Grid Computing.

Grid Forum (GF) (www.gridforum.org), creato nel 1999, ha rappresentato, di fatto, il principale consesso di armonizzazione e standardizzazione di tecnologie e metodologie in ambito grid. In passato, nonostante la presenza in questo contesto di europei e asiatici, questo forum è stato praticamente gestito e seguito principalmente da ricercatori e sviluppatori statunitensi. La missione di GF è la promozione e lo sviluppo di tecnologie e applicazioni per grid, mediante un approccio best practices, inteso a definire le linea guida implementative e gli standard di questo settore. I meeting di GF, che si susseguono su base quadrimestrale, hanno visto nel 2000 una partecipazione media di circa 150 partecipanti, appartenenti ad università, laboratori di ricerca e industrie. I documenti prodotti in ambito GF, relativi all’applicazione e/o integrazione di tecnologie grid, seguono un preciso processo di produzione basato sul consenso che richiama quello adottato nell’ambito di altri ben noti “bodies” di standardizzazione quali, ad esempio, IETF, W3C, ecc.

Nell’aprile del 2000, con l’intento di creare un forum atto a coordinare gli sforzi europei in questo settore, fu creato eGrid (European Grid Forum) (www.egrid.org), in occasione della conferenza ISTmus’2000, presso Poznan, Polonia. eGrid è una iniziativa, promossa e gestita da ricercatori europei, intesa a proporre, in chiave europea, lo spirito e i contenuti di Grid Forum. Attualmente, la comunità comprende individui provenienti da istituti di ricerca, università e industrie europee. Alcuni dei proponenti nel presente progetto (ISTI-CNR, ISUFI-HPC/Lecce) sono stati tra i fondatori di eGrid e ne sono direttamente coinvolti con funzioni coordinamento.

Nel 2001 è stato creato il Global Grid Forum (GGF), sorto dalla fusione tra GF, eGrid e la comunità Asia/Pacifico. Il primo evento (GGF1), al quale hanno preso parte oltre 350 partecipanti, si è tenuto presso l’Università di Amsterdam, nel febbraio 2001, al quale ha fatto seguito GGF2 a Washington nel Luglio 2001. Recentemente, dal 7 al 10 ottobre 2001, si è tenuto a Frascati, presso l'INFN, il GGF3, organizzato congiuntamente da INFN e CNR, a cui a fatto seguito l'Industry and Research Forum, un incontro tra rappresentanti di industrie attive nel settore delle nuove tecnologie, rappresentanti dell'UE ed esponenti dei maggiori centri di ricerca coinvolti nello studio e sviluppo delle tecnologie Grid (http://www.eu-datagrid.org/GGF3/).

115

--- PARTE II ---

--- MODELLI DI PROGRAMMAZIONE, STRUMENTI E AMBIENTI ---

Un approccio di programmazione molto promettente sembra essere la tecnologia “a componenti”. Questa tecnologia a componenti è già stata impiegata con successo in ambiente "sequenziale", sia in progetti di ricerca accademici che in ambiti industriali "di produzione" e un modello di "componente" per il calcolo ad alte prestazioni sta emergendo nell'ambito del "Common Component Architecture Forum". La realizzazione di "toolkit" numerici per il Calcolo Scientifico ad Alte Prestazioni, basati sull'approccio a componenti, è l'obiettivo di numerosi progetti connessi al CCAF, tra questi, i progetti ALICE di Argonne, LSA dell'Indiana University e Babel. In ambito internazionale, varie forme di componenti sono oggetto di progetti di ricerca di vario tipo, anche se non tutti e non completamente legati ne' allo sviluppo di ambienti di programmazione ne' alle tematiche GRID. (Riferimenti relativi sia alla tecnologia a componenti che GRID sono riportati nell'apposita sezione). L'intera esperienza maturata nell'ambito dei progetti della serie PQE, legata allo sviluppo di ambienti di programmazione per piattaforme tipo LAN omogenea, costituisce di fatto un punto di partenza per questo WP. Nell'ambito del progetto ASI-PQE si è studiata la fattibilità del porting delle tecnologie relative alla programmazione parallela strutturata in ambiente GRID. D'altro canto, le tipologie di moduli paralleli utilizzati negli ambienti SkIE e ASSIST (prodotto dei progetti PQE) per la realizzazione di applicazioni parallele, rappresentano un buon punto di partenza per la realizzazione di meta-componenti da utilizzare per la realizzazione di applicazioni multidisciplinari ad alte prestazioni per GRID, nel senso che possono essere utilizzate per strutturare forme di cooperazione fra componenti con garanzie di efficienza e portabilità.

--- LIBRERIE SCIENTIFICHE ---

Il contesto nazionale in cui si colloca tale ricerca è quello delineato dai progetti nazionali che finanziano le attività di ricerca nel campo del grid computing e in particolare i progetti CNR di Agenzia 2000 "Griglie computazionali e applicazioni" e “Ambiente per lo sviluppo di applicazioni ad alte prestazioni multipiattaforma e multilinguaggio, basato sul modello ad oggetti e sulla programmazione parallela strutturata”, il progetto MIUR - fondo speciale per lo sviluppo della ricerca di interesse strategico 1999 - "Grid Computing: tecnologie abilitanti per eBusiness e eScience", ed il progetto "ASI-PQE2000". In tali progetti sono state avanzate prime proposte per l'utilizzo di librerie in ambiente di griglia e la definizione e lo sviluppo di un ambiente di programmazione "general-purpose", basato su componenti ad alte prestazioni, orientato anche ad applicazioni su griglie computazionali.In campo internazionale molteplici progetti affrontano il problema dell'integrazione delle librerie di software matematico in ambiente di griglia. Ad esempio, il progetto NetSolve [http://icl.cs.utk.edu/netsolve/] ha come scopo lo sviluppo di strumenti software per localizzare, scegliere ed utilizzare, in maniera efficace e trasparente, per la risoluzione di problemi scientifici, risorse computazionali diverse connesse in rete. Più recentemente, ha avuto avvio il progetto GrADS [http://hipersoft.cs.rice.edu/grads/], che indaga le problematiche connesse con lo sviluppo di architetture software affidabili ed efficienti in grado di “rendere semplice” la soluzione di problemi scientifici su griglie computazionali; in tale ambito alcune attività sono dedicate alle librerie di software matematico per applicazioni su griglia.

--- GRID COMPUTING ORIENTATO ALLE RETI FOTONICHE ---

Il grid-computing può trarre benefici importanti dallo sviluppo delle infrastrutture di reti ottiche. Sebbene le reti ottiche siano ampiamente usate per comunicazioni di tipo punto-punto e all'interno di isole basate sul paradigma di commutazione a circuito ad alta velocita', lo sviluppo applicato alle reti grid computing deve essere ancora ampiamente studiato. Moduli specifici, chiamati middleware creano un'interfaccia tra i servizi offerti dalla rete e le primitive delle applicazioni di alto livello. Il bandwidth broker costituisce l'intelligenza centrale del middleware. In termini di protocolli, IP e' diventato il protocollo di instradamento standard per tutte le applicazioni che usano internet. Il livello di trasporto invece e' ancora basato, nella maggior parte delle odierne reti ad alta velocita', sull'uso del protocollo ATM supportato dal livello fisico di SDH/SONET, con la possibilita' di essere mappato su diverse lunghezze d'onda con la tecnologia WDM. Tra gli immediati vantaggi, rispetto a soluzioni esistenti basate su livelli intermedi come SONET/SDH e ATM, derivanti dall'interfacciare direttamente IP e WDM, possiamo includere sia la riduzione globale dei costi dell'equipaggiamento e della complessita' del controllo, sia una migliore utilizzazione della banda. Tuttavia, per garantire una certa QoS interfacciando direttamente IP e WDM, il sistema di controllo deve essere modificato. Questo puo' essere realizzato usando MPLS (Multiprotocol Label Switching), che puo' anche essere esteso al livello ottico usando le lunghezze d'onda stesse come etichette (MPlS). L'utilizzo combinato di label elettriche e ottiche per definire un LSP (Label Switch Path) definisce il paradigma di commutazione detto GMPLS (Generalized MPLS ). In un ambiente di grid computing, MPLS diventa un'importante tecnica

116

in quanto la FEC (Forward Equivalent Class) associata ad una etichetta puo' anche essere associata ad una applicazione distribuita. L'ultima frontiera nelle reti ottiche è la creazione di isole ottiche all'interno di reti tutto-ottiche basate sul paradigma dell'Optical Packet Switching (OPS).La tecnologia che permette di realizzare il paradigma di commutazione a pacchetto ottico non e' ancora del tutto sviluppata e un notevole lavoro di ricerca deve essere dedicato per migliorare questa tecnologia e per poterla utilizzare nel campo delle applicazioni grid computing. Tra le difficolta' da superare per poter utilizzare le tecnologie fotoniche citiamo l'impegno per ottenere migliori architetture per dispositivi come OADM, OXC (Optical Cross Connect) e la sua estensione al WXC (Wavelenght Cross Connect). Le caratteristiche di un WXC dipendono dal numero di porte e di lunghezze d'onda. L'inserzione di una matrice di commutazione spaziale permette al WXC di avere una completa connettivita' tra ogni porta d'ingresso e ogni porta d'uscita. La struttura del WXC usato in una rete ottica, ha un impatto diretto sul formato del pacchetto dati trasmesso che deve essere ottimizzato per massimizzare il throughput della rete.

--- APPLICAZIONI GRID ALLA ASTROFISICA ---

Negli ultimi anni c’è stato un crescente interesse nella comunità astronomica verso l’imaging di largo campo, grazie alla disponibilità di grandi facility osservative (es. ESO VLT), ed all’emergere di ricerche che richiedono lo studio statistico di grandi quantita` di oggetti astronomici. I dati archiviati possono essere usati per scopi scientifici diversi dagli scopi primari di un’osservazione, permettendo un migliore utilizzo delle risorse investite; inoltre, gli archivi possono essere una preziosa sorgente di materiale educativo e divulgativo di alta qualità. I cataloghi astronomici svolgono un ruolo diverso, ed in generale contengono informazioni derivate, frutto dell’analisi dei dati osservativi. Un archivio pilota dei dati acquisiti dal Telescopio Nazionale Galileo sarà disponibile nella primavera del 2002 presso l’Osservatorio Astronomico di Trieste. Inoltre, la versione piu` recente del Guide Star Catalog sara` disponibile nel dicembre 2001 presso l’Osservatorio Astronomico di Padova. Collegare queste due sedi e permettere che l’elaborazione e/o il mining dei loro dati venga effettuato in modo distribuito e` un’importante priorita` della comunita` astronomica italiana rappresentata da INAF.In ambito europeo, il progetto OPTICON raggruppa fornitori multinazionali, nazionali e regionali di infrastrutture osservative astronomiche ed alcuni dei maggiori istituti di ricerca. L’Astrophysical Virtual Observatory (AVO) ha come scopo la costruzione di “un insieme connesso ed interoperabile di archivi astronomici” per mezzo di tecnologie Grid; attualmente e` in una fase triennale di studio di fattibilita`. Entrambi i progetti sono finanziati dall’UE ed hanno un’importante partecipazione italiana. Infine, la fattibilita` dell’osservazione remota e` stata dimostrata su un certo numero di telescopi diversi da due progetti a forte partecipazione italiana (REMOT and DYNACORE) finanziati negli anni scorsi nell’ambito del quarto programma quadro dell’UE.

--- APPLICAZIONI GRID ALLA BIOLOGIA ---

Il completamento della sequenza primaria di diversi genomi, in particolare di quello umano, ha influenzato tutti i settori della biologia, non ultimo le neuroscienze. Nell'ultimo decennio le neuroscienze sono state uno dei settori di elezione nello studio della funzionalità genica per quanto concerne la valutazione dei fattori di rischio genetici e ambientali delle malattie del sistema nervoso centrale. La tendenza a creare laboratori virtuali specifici per le diverse discipline biomedicali richiede un'infrastruttura informatica di elevata capacità. Infatti, se per l'aspetto di analisi di sequenze i tempi di computazione sono ancora accettabili, per la modellizzazione di pathways genici o metabolici non lo sono ancora, soprattutto se i risultati devono essere sincronizzati con altri provenienti da altri tipi di analisi.

--- APPLICAZIONI GRID PER MOLECULAR VIRTUAL REALITY ---

L'attivita' del WP e' basata su quelle dei laboratori che lo costituisconoe che sono attivi su tre grandi direttrici di ricerca: il calcolo accurato dell'interazione per piccole molecole e la determinazione esatta della dinamica dei relativi sistemi gassosi, la valutazione delle proprieta' statiche e dinamiche di molecole di grandi dimensioni, la modellistica di sistemi in fase condensata. Cio' e' reso possibile dal fatto che i laboratori coinvolti posseggono le necessarie competenze teoriche e i relativi package di software.

Sforzi sistematici sono stati compiuti per sviluppare attivita' di ricerca coordinata su rete. Su questo intendimento sono basati gli sviluppi di alcuni progetti nazionali quale quello per modellizzare le condizioni di rientro delle navicelle spaziali. Gli aspetti computazionali relativi alla gestione concorrente di applicazioni

117

computazionali chimiche e' gia' oggi affrontato dal WP 4 "EVAL: dimostratori e benchmarking" (coordinato dal Prof. A. Lagana) nell'ambito del progetto ASI-PQE2000 Project diretto dal Prof. Vanneschi.

Orientata verso attivita' di grid computing e' anche l'azione COST in Chimica D23 (Metachem: metalaboratories for complex computational applications in chemistry) coordinata da Antonio Lagana. Molti dei progetti che la compongono hanno lo stesso spirito di quelli del presente progetto (001 Peter Carsky "A European Metalaboratory for multireference quantum chemical methods" ; 002 Knut Faegri "Dirac: A European Metalaboratory for developping computational techniques and software for four component relativistic quantum chemical calculations"; 003 Osvaldo Gervasi "Simbex: A Metalaboratory for the a priori simulation of crossed molecular beam experiments"; 004 Antonio Aguilar "Accurate Metacomputer Quantum Mechanical Studies of the structure, Dynamics and Spectroscopy of reactive systems relevant to environmental and applied chemistry"). Tali progetti sono tutti finalizzati alla costruzione di laboratori computazionali chimici distribuiti su grid.

The present project is in line with the rest of programmes or actions currently conducted in the world and, in particular, in Europe. This section is divided in two parts. The first one is dedicated to present the most significant Grid (or strictly related) initiatives conducted today in this new research field, starting with the Italian ones. The second part focus on some ‘trendy’ technologies that are noteworthy to study in this project.

--- PART I ---

There is increasing interest in Grid Computing in Italy. This is reflected by the growing number of projects in this area. We describe some projects now underway in two major Italian research institutions: the Italian National Research Council (CNR) and the Italian Institute for Nuclear Physics (INFN).

Ongoing work at CNRThe actions related to Grid Computing involving CNR are a natural evolution of the PQE2000 project. This project, started at the end of 1995, has involved well-known groups working in three Italian research agencies (CNR, ENEA, INFN) and one industrial company (Quadrics Supercomputers World Ltd). A list of mature projects includes:- Computational Grids and Applications: this project, coordinated by CNR, involves 13 research groups belonging to: CNR (4), Universities (8), other Italian research institutions (1), respectively. It represents the first step toward the creation of a National awareness aroud Grid technologies; duration: 1Year; budget: 410KEuro; status: Approved by CNR (June 2001). - GRID Computing - Enabling Technologies and Applications for E-Science: this project, coordinated by CNR, involves 20 research groups belonging to: CNR (10), Universities (6), Public Administration (2), and Industry (2), respectively. The main goal of this project is to study, evaluate, and exploit grid computing technologies for the development of a new generation of scientific and business applications. A further goal is the creation of a kernel of skilled individuals on this research topic, opened to researchers, service providers and end-users; duration: 2.5 Years; budget: 2Meuro. Status: Approved Budget (about 400 K€) by the Italian Ministry for Research (September 2001).- ASI-PQE2000: this project by the Italian Space Agency (ASI) represents a joint effort among academic and industrial Italian partners led by the Department of Computer Science of the University of Pisa. The project mainly aims at building ASSIST (A Software development System based on Integrated Skeleton Technology). Only a part of this project is related to grid computing; in particular, a work package is targeted to specify how to extend ASSIST in order to address heterogeneous platforms (eg, Grids); duration: 2 Years; budget: 2MEuro; Status: Approved by ASI (December 2000). - DataGrid Project: CNR is associated partner in the DataGrid Project, a project recently approved by the European Commission and led by CERN. CNR is responsible for dissemination and exploitation activities; duration: 3 Years; status: First Year of activity.

INFN Intitiatives

Since two years INFN is involved in national and international Grid projects with the main goal to study, design and test the computational and data Grid for the new large experiments (LHC, Virgo, BABAR, etc.) which involve large international collaborations.DataGrid is an European Community funded ongoing project, where INFN is one of the 6 main partners, focused on the development of grid middleware services on top of Globus. Important services that will be

118

released by the end of 2001 are ‘a grid scheduler’ service, ‘grid resource access authorization and account management’ tool, data mover and replica catalog, and network monitoring toolsINFN-GRID is an INFN funded ongoing project with the specific goal to deploy a national Grid using the services released from the DataGrid project.DataTAG in Europe, funded by the European Community, where INFN is one of the 4 main partners, and iVGDL in US are the two related Grid projects having the objective to establish a worldwide Grid testbed where different applications can run to guarantee compatibility between transatlantic Grids.GriPhyN and PPDG are similar projects running in US, mainly dedicated to define Grid architectures, Data Models and middleware services for HEP experimentsA worldwide Grid coordination body where INFN is represented has been established to guarantee coherence and a compatible and interoperable architecture of the ongoing developments of the above and other related Grid projects.

The European Situation

The European projects mentioned in this section are EU funded under the EU Information Society Technologies (IST) Programme - GRID Action Line. The goal of this Action Line is to foster and encourage community-wide (research and industry) development, deployment, experimentation, and integration of the Grid in order to incorporate it as an instrument for European competitiveness in research, industry and business. The Grid aims at the effective harnessing of computing and data resources available world-wide and at making them seamlessly accessible as a single resource for any user on the web. The work focuses on:

- Test beds for progressive full end to end service deployment and utilisation of the Grid through integration and implementation of relevant components, such as network technologies (routers, protocols, etc.), middleware (security, authentication, authorisation, resource scheduling, accounting, etc.) and application toolkits. These test beds should be conducted in the context of full scale applications (e.g. from those mentioned in the section on objectives) to understand and assess implementation problems as well as sociological and organisational issues. They should help construct gradually a unique infrastructure for ubiquitous computing and ubiquitous access to information.- The development of Grid-specific toolkits and software and system architectures that ensure performance and scalability of solutions together with usability and functionality- Interoperability between different Grid test-beds, the promotion of standards and reusable elements of broad utility and the exploitation of commonalties to reduce the barriers to deployment.

Grid Initiatives in UK

Among the European initiatives on the Grid field, the UK experience is noteworthy. In October 2000, the UK Government’s Office of Science and Technology (OST) announced a £98 Million programme over 3 years to develop and deploy Grid technology to meet the data and computing challenges arising in several areas of the physical and life sciences. The rationale behind this decision is that, today, science is posing some of the most extreme computing challenges. These challenges represent the cutting edge in developing the next generation of distributed IT systems. Just as happened with the Web, however, the solutions to these challenges will quickly find application in the commercial marketplace. By supporting the Grid developments required by science now, the belief is that we will get to commercially useful systems quicker. UK Research Government has set up a specific e-science programme, with £ 118 Million over three years, plus extra funds to upgrade the academic network. They have deliberately divided the programme into two main sections. Firstly, there is £74 Million in specific allocations to the different Research Councils in the UK to tackle individual application science problems for which Grid solutions could provide the answer. Areas of application science include:

- Particle physics, with petabyte data flows and extremely large data storage and communication issues - Genomics, with huge emerging databases of the human genome, and where metadata, visualisation and interoperability are crucial - Climate change, where large in-silico modelling with many variables is particularly important - Engineering systems design.

The second part of the UK programme is the ‘Core e-science’ programme. This will be managed by one of the Research Councils on behalf of the whole scientific community, and will have £35Million of Government support, covering both scientific and industrial pump priming. The programme will be expected to pull in at least £20 Million of additional industrial support.

119

This core programme will invest in generic technologies – scaleable networks, shared environments, access/security, metadata and so on. It will need to work iteratively with the application programmes, learning from them, providing them with new generic technology, and disseminating best practice across the disciplines. Progress in the applications will feed through to the generic, and vice-versa. Within the Core e-science programme, academic and industrial researchers will be brought together in open source joint research.The core programme will also be responsible for expanding linkage with Grid developments internationally. It is essential that the UK programme forms part of the European and global efforts towards developing the technologies. The core programme will be actively involved in establishing international collaboration, although individual application programmes will also have specific collaborations (eg the UK particle physicists will be working with CERN).

Parallel to these developments, the UK’s academic research network, JANET, has been upgraded. The backbone (Super JANET) has been raised to 2.5 Gbit/s, rising to 20 Gbit/s in 2002 and with additional increases planned. Metropolitan and Local area networks are also being upgraded, and a major boost to university infrastructure funding will allow them to increase their own internal networks.

Grid Computing Projects Worldwide

There are currently a large number of projects and diverse range of emerging grid developmental approaches being pursued. These systems range from metacomputing frameworks to application testbeds, and from collaborative environments to batch submission mechanisms. Here some of the current grid projects representative different grid technology approaches are presented. Moreover, a short description of Global Grid Forum, an initiative intended to promote and develop grid technologies and applications is given at the end of this section. The projects briefly described in this section include the following:- Europe: CERN Data Grid, DAMIEN, EUROGRID, UNICORE.- USA: Globus, Legion, NASA IPG, and NetSolve.- Asia/Japan: Ninf.- Australia: Nimrod/G.

DataGrid As just mentioned before, describing the INFN involvement in this field, the objective of this EU funded project is to enable next generation scientific exploration which requires intensive computation and analysis of shared large-scale databases, from hundreds of TeraBytes to PetaBytes, across widely distributed scientific communities. We see these requirements emerging in many scientific disciplines, including physics, biology, and earth sciences. Status: active.

DAMIEN (Distributed Applications and Middleware for Industrial Use of European Networks Coordinator)The objective of the DAMIEN project is to develop building blocks for a middleware environment for distributed simulation and visualisation. Besides the multi-protocol communication library for heterogeneous networks it includes the handling of Quality of Service requirements in distributed simulations. A coupling code interface will allow to couple distributed applications. Tools for performance analysis and prediction are extended to assist in the tuning of distributed applications. Two applications from industry serve as test cases for the developed software. Status: active.

EUROGRID The EUROGRID project is a shared cost Research and Technology Development project (RTD) granted by the European Commission (grant no. IST 20247). It is part of the Information Society Technologies Programme (IST). The grant period is Nov 1, 2000 till Oct 31, 2003. The objectives of the EUROGRID project are to establish a European GRID network of leading High Performance Computing centres from different European countries and to operate and support the EUROGRID software infrastructure. EUROGRID will also demonstrate distributed simulation codes from different application areas (Biomolecular simulations, Weather prediction, Coupled CAE simulations, Structural analysis, Real-time data processing. Status: active.

UNICOREUNICORE (UNiform Interface to COmputer REsources) is a project funded by the German Ministry of Education and Research. A consortium of people from universities, national research laboratories, software industry, and computer vendors develops UNICORE. Initially, it was a two years project ending in December 1999 but there is a plan to retarget it and extend it for another two/three years. UNICORE main focus is in providing a uniform interface for job preparation and control that offers seamless and secure access to

120

supercomputer resources. The idea behind UNICORE is to support the users by hiding the system and site-specific idiosyncrasies and by helping to develop distributed applications. Status: active.

GLOBUSGlobus provides a software infrastructure that enables applications to handle distributed, heterogeneous computing resources as a single virtual machine. The Globus project is a U.S. multi-institutional research effort that seeks to enable the construction of computational grids. A computational grid, in this context, is a hardware and software infrastructure that provides dependable, consistent, and pervasive access to high-end computational capabilities, despite the geographical distribution of both resources and users. A central element of the Globus system is the Globus Metacomputing Toolkit (GMT), which defines the basic services and capabilities required to construct a computational grid. The toolkit consists of a set of components that implement basic services, such as security, resource location, resource management, and communications.It is necessary for computational grids to support a wide variety of applications and programming paradigms. Consequently, rather than providing a uniform programming model, such as the object-oriented model, the GMT provides a bag of services from which developers of specific tools or applications can use to meet their own particular needs. This methodology is only possible when the services are distinct and have well-defined interfaces (API) that can be incorporated into applications or tools in an incremental fashion. Globus is constructed as a layered architecture in which high-level global services are built upon essential low-level core local services. The Globus toolkit is modular, and an application can exploit Globus features, such as resource management or information infrastructure, without using the Globus communication libraries.

LEGIONLegion is an object-based metasystem developed at the University of Virginia. Legion provides the software infrastructure so that a system of heterogeneous, geographically distributed, high performance machines can interact seamlessly. Legion attempts to provide users, at their workstations, with a single, coherent, virtual machine. Legion is organized by classes and metaclasses (classes of classes). In the Legion system: Everything is an object - Objects represent all hardware and software components. Each object is an active process that responds to method invocations from other objects within the system. Legion defines an API for object interaction, but not the programming language or communication protocol.

NASA Information Power Grid (IPG)The NAS Systems Division is leading the effort to build and test NASA’s Information Power Grid (lPG), a network of high performance computers, data storage devices, scientific instruments, and advanced user interfaces. The overall mission of the IPG is to provide NASA’s scientific and engineering communities a substantial increase in their ability to solve problems that depend on use of large-scale and/or distributed resources. The project team is focused on creating an infrastructure and services to locate, combine, integrate, and manage resources from across NASA centers. An important goal of the IPG is to produce a common view of these resources, and at the same time provide for distributed management and local control.

NetSolveNetSolve is a client/server application designed to solve computational science problems in a distributed environment. The Netsolve system is based around loosely coupled distributed systems, connected via a LAN or WAN. Netsolve clients can be written in C and Fortran, use Matlab or the Web to interact with the server. A Netsolve server can use any scientific package to provide its computational software. Communications within Netsolve is via sockets. Good performance is ensured by a load-balancing policy that enables NetSolve to use the computational resources available as efficiently as possible. NetSolve offers the ability to search for computational resources on a network, choose the best one available, solve a problem (with retry for fault-tolerance), and return the answer to the user.

NINFThe Network Infrastructure for global computing (Ninf) is a client/server- based system that allows access to multiple remote compute and database servers. Ninf clients can semi-transparently access remote computational resources from languages such as C and Fortran. A programmer is able to build a global computing application by using the Ninf remote libraries as its components, without being aware of the complexities of the underlying system they are programming.

--- GRID STANDARDIZATION BODIES : International Grid Forums ---

The Grid Forum is a mainly US community-initiated forum of individual researchers and practitioners working on distributed computing, or ‘grid’ technologies. It focuses on the development and documentation of ‘best practices’, implementation guidelines, and standards with an emphasis on rough consensus and running

121

code. Grid Forum efforts are also aimed at the development of a broadly based Integrated Grid Architecture that can serve to guide the research, development, and deployment activities of the emerging Grid communities. The definition of this architecture will advance the Grid agenda through the implementation of fundamental basic services and by sharing code among different applications with common requirements. The Grid Forum (GF) was established in 1999. GF holds regular meetings, maintains a web site (www.gridforum.org), and operates working groups where ongoing technical discussions are facilitated with specific objectives outlined in working group charters. Grid Forum participation as of early 2000 includes over 150 individuals from universities, Federal laboratories, and companies organized into nine focused working groups. The objectives of GF encompass the development of ‘production’ Grid infrastructures and involves the development of Informational (e.g. recommended practices, deployment examples, etc.) and Applicability Statement (AS; e.g. implementation guidelines) documents that are necessary for building distributed systems. These documents will often be concerned with the application and/or integration of technologies developed within other groups such as IETF or W3C.The European Grid Forum (eGrid) has the main objective to create an open forum to improve the conditions for Grid-related research in Europe. eGrid is similar in intentions to the successful US initiative but reflects the particular situation in Europe. It will gather information about all Grid-related projects in Europe and ensure that individual projects are aware of and can integrate with similar efforts. E-Grid intends to establish a high profile and will support the Grid Idea, stimulating projects and collaboration.. A long-term goal is to build a European Grid. The 1st eGrid Workshop was held in April’2000, in conjunction with ISThmus’2000, in Poznan, Poland.In February 2001, the Global Grid Forum (GGF) was established. GGF is the result of a merger of the Grid Forum, the eGrid European Grid Forum, and the Grid community in Asia-Pacific. GGF is a community-initiated forum of individual researchers and practitioners working on distributed computing, or ‘grid’ technologies. GGF efforts are also aimed at the development of a broadly based Integrated Grid Architecture that can serve to guide the research, development, and deployment activities of the emerging Grid communities. Defining such an architecture will advance the Grid agenda through the broad deployment and adoption of fundamental basic services and by sharing code among different applications with common requirements.

--- PART II ---

--- PROGRAMMING MODELS, TOOLS AND ENVIRONMENTS ---

A very promising programming approach seems to be the ‘component’ technology. This technology has already been successfully used in a sequential framework, both in academic research projects and in production, industrial environments. A ‘component model’ for high performance computations is currently emerging in the framework of the ‘Common Component Architecture Forum’. The implementation of numerical ‘toolkits’ for high performance scientific computations based on the component approach is the goal of different research project linked to CCAF including ALICE at Argonne, LSA at the Indiana University and Babel. In international context, different forms of components are the subject of research project of different kind, even if not all of them concern development environments or the GRID world. The whole experience gained in the framework of PQE projects, concerning the development of programming environments for homogeneous LANs, actually represents the starting point for this workpackage. Within the ASI-PQE the feasibility of the porting of the technologies relative to structured parallel programming has been studied. On the other hand, the type of the parallel modules used in SkIE and ASSIST (the products of the PQE projects) to build parallel applications represent a good starting point to implement high performance multidisciplinary applications for GRID, in the sense that they can be used to structure the efficient and portable component cooperation patterns.

--- SCIENTIFIC LIBRARIES ---

This research activity will be carried out in the context of the national projects in the field of Grid Computing, especially the projects ‘Computational Grids and Applications’ and ‘An Environment for the development of multi-platform and multi-language high-performance applications, based on object and structured parallel programming models’, funded by the National Research Council (CNR) (‘Agenzia 2000’ Programme), the project ‘Grid Computing: enabling technologies for eBusiness and eScience, funded by the Education, University and Research Ministry (MIUR) (‘1999 Special Programme for Development of Strategic Research’) , and the ‘ASI-PQE2000’ project. These projects include early proposals for the use of scientific libraries on the grid and the development of a general-purpose environment, based on the high-performance component technology, that is oriented also toward applications on computational grids.Concerning the international research context, many scientific projects deal with the integration of mathematical software libraries in computational grid environments. For example, the Netsolve project

122

[http://icl.cs.utk.edu/netsolve/] is aimed at the development of software tools to locate, select and use, effectively and transparently, for the solution of scientific problems, different computational resources connected by computer networks. More recently, the GrADS project [http://hipersoft.cs.rice.edu/grads/] has been started, which investigates the issues concerning the development of efficient and reliable software architectures that can ‘easily’ enable the solution of scientific problems on computational grids; in such a context, activities concerning mathematical software libraries for scientific applicaytions on the Grid are carried out.

--- GRID COMPUTING ORIENTED PHOTONIC NETWORKS ---

It is clear that grid-computing can tremendously benefit from the deployment of an optical network infrastructure. Though optical networks are widely used both as point-to-point links and connection oriented island for high speed forwarding, their deployment for grid computing must be widely investigated. Proper modules called middleware act as an interface between the network services and the high-level application primitives. The bandwidth broker is the core intelligence of the middleware. In terms of protocol IP has become the standard routing protocol for all applications over the Internet. The transport layer, instead, is still realized in most high speed legacy system using the ATM protocol supported by a SDH/SONET physical layer, possibly mapped on different wavelengths in a WDM fashion. The straightforward advantages of interfacing IP directly over WDM, as opposed to existing solutions that rely on intermediate layers such as SONET/SDH and ATM, include overall reduction of equipment cost and management complexity, as well as improved bandwidth efficiency. However in order to grant QoS by directly interfacing IP over WDM we need to couple a control plane to the IP data plane. This is realized by the popular MPLS (Multiprotocol Label Switching) which can be extended to the optical domain by using the wavelength themselves as native labels (MPlS). The combined use of optical and electrical labels to define an LSP (Label Switched Path) defines the so-called GMPLS (Generalized MPLS) switching paradigm. In a grid computing environment GMPLS is an important technique since the FEC (Forward Equivalence Class) associated to a label can be also associated to a distributed application. The last frontier of optical networks is to join optical islands in a unique all-optical networks based on an optical packet switching (OPS) paradigm. Enabling technologies for OPS are not mature yet and a lot of research efforts must be spent to improve them and employ them for grid computing applications. Among the photonic technologies challenges we mention the efforts for improved architectures for switching devices such as the OADM and the OXC (Optical Cross Connect) and its extension to WDM network called WXC (Wavelength Cross Connect). The features of a WXC depend on the number of ports and number of wavelengths employed. The insertion of spatial matrices and wavelength converters allows significant improvements in the switching capabilities of WXCs.

--- GRID APPLICATIONS FOR ASTROPHYSICS ---

In the last few years there has been a growing interest in the astronomical commmunity towards wide field imaging, sparked by the availability of large observing facilities (e.g. ESO VLT), and by the emergence of fields of research that require the study of large samples of astronomical objects. Archived data can be utilised beyond the principal objective of an observation to produce relevant scientific output, allowing a better exploitation of the resources invested; archives furthermore can be an invaluable source of high-quality material for educational purposes. Astronomical catalogs have a different role, and in principle contain derived information, result of the processing and analysis of observations. A pilot Long-Term Archive (LTA) for the national TNG telescope will be made publicly available in spring 2002 at the Trieste Astronomical Observatory,. Complementary, the latest version of the Guide Star Catalog will be available in December 2001 at the Padova Astronomical Observatory. Connecting these two data sites and allowing their data to be analysed and/or mined in a distributed fashion is an important priority for the Italian astronomical community represented by INAF. Internationally, the EU OPTICON ‘Infrastructure Cooperation Network’ brings together Europes multinational, national and major regional providers of astronomical observing infrastructures, together with a few research institutes from the larger countries. The Astrophysical Virtual Observatory (AVO) is a project aiming at building ‘a connected and interoperating set of Astronomical Archives’ by the means of Grid technologies, and is currently in a 3 years-long feasibility study phase. Both projects are funded by the EC and have an important Italian participation.Finally, the feasibility of remote observations has been demonstrated on a variety of different telescopes by two projects (REMOT and DYNACORE) with strong Italian participation financed by the EU within its 4th framework programme.

--- GRID APPLICATIONS FOR BIOLOGY ---

123

The completion of the primary sequences of many genomes, in particular the human genome, has influenced all sectors of biology and medicine (eg. neuroscience, bioinformatics, population genetics). In the last decade neurosciences has been one of the elective sectors of functional genetic studies concerning the evaluation of genetic and environmental risk factors of the central nerve system. The tendency to create specific virtual laboratories for different biomedical disciplines needs a highly developed informatics structure. At present a variety of aspects of the sequence analysis can be carried out in a moderate amount of time, but for the modelling of genetic or metabolic pathways, and for some calculation in population genetics,a high spec calculus is needed, especially in the case of synchronized results with other types of analysis.

--- GRID APPLICATIONS FOR MOLECULAR VIRTUAL REALITY ---

The activity of the WP is based on those of the consituent laboratories which are active along three main research lines: the accurate calculation of small molecule interaction and the exact determination of the dynamics of gas phase systems, the evaluation of the static and dynamic properties of large molecule, the modeling of condensed phase systems. This is made possible by the fact that the involved laboratories possess the underlying theoretical know how and the related software packages.

Systematic efforts have been performed to develop networked research activities. This has been the basis to develop concurrent computing national projects like the one for modeling reentering spacecraft conditions at national level. The computational aspects of the problem of managing concurrent chemical computional applications have been developed within Workpackage 4 ‘EVAL: dimostratori e benchmarking’ (coordinated by Prof. A. Lagana) of the ASI-PQE2000 Project lead by Prof. Vanneschi.

Oriented towards grid computing activity is also the Cost action D23 (Metachem: metalaboratories for complex computational applications in chemistry) chaired by Antonio Lagana. Most of the related projects have the focus of the present project (001 Peter Carsky ‘A European Metalaboratory for multireference quantum chemical methods’; 002 Knut Faegri ‘Dirac: A European Metalaboratory for developping computational techniques and software for four component relativistic quantum chemical calculations’; 003 Osvaldo Gervasi ‘Simbex: A Metalaboratory for the a priori simulation of crossed molecular beam experiments’; 004 Antonio Aguilar ‘Accurate Metacomputer Quantum Mechanical Studies of the structure, Dynamics and Spectroscopy of reactive systems relevant to environmental and applied chemistry’). These projects are all aimed at the construction of computational chemical laboratories distributed on a grid.

3.2.a Riferimenti bibliografici

---LARGE-SCALE PLATFORMS AND GRID COMPUTING PRINCIPLES---1. Foster I., Kesselman C., Tuecke S., The Anatomy of the Grid: Enabling Scalable Virtual Organizations,

January 2001 2. Foster I. and Kesselman C. (editors), The Grid: Blueprint for a Future Computing Infrastructure, Morgan

Kaufmann Publishers, USA, 1999.3. Gannon D., Component Architecture for High Performance, Distributed Meta-Computing

http://www.computer.org/dsonline/gc/gcpapers.htm4. Keahey K., Beckman P., and Ahrens J., Ligature: Component Architecture for High Performance

Applications, The International Journal of High Performance Computing Applications, Volume 14, No 4, Winter 2000, pp. 347-356

5. Clark D., Face-to-face with Peer-to-Peer Networking, IEEE Internet Computing, January 2001, 18-21.6. Gentzsch W. (editor), Special Issue on Metacomputing: From Workstation Clusters to Internet

computing, Future Generation Computer Systems, No. 15, North Holland, 1999.7. Baker M., Buyya R., and Laforenza D., The Grid: International Efforts in Global Computing, Proceedings

of SSGRR 2000 Computer & eBusiness Conference, Scuola Superiore G. Reiss Romoli, L’ Aquila, July 31 – August 6, 2000

8. Report on the Workshop on Grid Technologies, Directorate-General Information Technology, Research Networking, European Commission, Brussels, 22-23 June 2000

9. Laforenza D. E-Grid – Toward the Creation of a European Grid Community, ERCIM NEWS, N. 42, July 2000, p. 42

10. ERCIM News No.45, April 2000, SPECIAL THEME – GRIDS: e-Science to e-Business11. Codenotti B., Laforenza D., Italian Initiatives in Grid Computing, ERCIM NEWS, N. 45, April 2001, pp.

13-1312. Boyd D., Jeffreys P., Goodfellow J., Steenman-Clark L. and Allan P., UK e-Science Grid Programme,

ERCIM NEWS, N. 45, April 2001, pp. 11-12

124

13. Report on the Programme consultation meeting “Large-scale Distributed Systems and Platforms, including GRID-based Systems”, Brussels, 10-11 April 2001, European Commission, Directorate-General Information Technology

--- PROGRAMMING MODELS, TOOLS AND ENVIRONMENTS ---14. M. Vanneschi, "PQE2000: HPC tools for industrial applications", IEEEConcurrency, 6(4):68-73, 199815. Vanneschi, “Heterogeneous HPC environments”, invited paper, 4th Int. Euro-Par Conference,

Southampton, Sept. 1998, in D. Pritchard and J. Reeve (Eds.), Lecture Notes in Computer Science, vol. 1470, pp. 21-34.

16. B. Bacci, M. Danelutto, S. Pelagatti, M. Vanneschi, "SkIE: A heterogeneous environment for HPC applications", Parallel Computing, 25:1827-1852, Dec. 1999

17. Armstrong R., Gannon D., Geist A., Keahey K., Kohn S., McInnes L., Parker S., and Smolinski B., Toward a common component architecture for high performance scientific computing. In Proceedings of the 8th High Performance Distributed Computing (HPDC'99), 1999

18. C. Lee, S. Matsuoka, D. Talia, A. Sussman, N. Karonis, G. Allen, J. Saltz, "A Grid Programming Primer", Global Grid Forum 2, WashingtonD.C., July 2001.

19. Newhouse S., Mayer A., and Darlington J., A Software Architecture for HPC Grid Applications, A. Bode et al. (Eds.): Euro-Par 2000, LNCS 1900, pp. 686–689, 2000, Springer-Verlag

--- SCIENTIFIC LIBRARIES ---20. L. A. Freitag, W. D. Gropp, P. D. Hovland, L. C. McInnes, B. F. Smith, Infrastructure and Interfaces for

Large-Scale NumericalSoftware, in Proceedings of the 1999 International Conference on Parallel and Distributed Processing Techniques and Applications, June28 - July 1, 1999, Las Vegas, Nevada.

21. M. D'Apuzzo, M. Lapegna, A. Murli, Scalability and Load Balancing in Adaptive Algorithms for Multidimensional Integration, ParallelComputing, vol. 23, 1997.

22. Petitet, S. Blackford, J. Dongarra, B. Ellis, G. Fagg, K. Roche, S. Vadhiyar, Numerical Libraries and The Grid, Technical Report UT-CS-01-460, University of Tennessee, 2001.

23. S. Filippone, M. Colajanni, PSBLAS: a Library for Parallel Linear Algebra on Sparse matrices, ACM Transactions on Mathematical Software, 26(4) , 2000.

--- KNOWLEDGE BASED PROCESSES ---24. Workshop on Large-Scale Parallel KDD Systems, Aug. 1999, in conjunction with 5th ACM SIGKDD Int.

Conf. on KDD 99.25. P. Ferragina, F. Luccio, “String search in coarse-grained parallel computers”, Algorithmica: Special

issue on Coarse-Grained Parallel Computers, Editor Frank Dehne, vol. 24, 177--194, 1999. 26. M. Coppola, M. Vanneschi, “High-performance Data Mining with Skeleton-based Structured Parallel

Programming”, accepted to Parallel Computing, 2001.

--- HIGH SPED PHOTONIC NETWORKS ---27. Fumagalli and M. Tacca, "Differentiated Reliability (DiR) in WDM Ring without Wavelength Converters",

in Proc. IEEE ICC 2001, Helsinki, Finland, June 2001.28. V. Sander, W.A. Adamson, I. Foster, A. Roy, “End-to-end provision of Policy Information for networks

QoS”, Proc. of the 10th IEEE Symposium on High Performance Distributed Computing (HPDC-10), August 2001.

29. Banerjee, J. Drake, J.P. Lang, B. Turner, K. Kompella, Y. Rekhter, "Generalized multiprotocol label switching: an overview of routing and management enhancements", IEEE Communications Magazine, volume 39, number 1, January 2001.

--- SECURITY ---30. Arcieri, Cappadozzi, Naggar, Nardelli, Talamo. Coherence Maintenance in Cooperative Information

Systems: the Access Key Warehouse Approach, Int. J. of Cooperative Information Systems, Sep.01. 31. Seltzsam, Boerzsoenyi, Kemper: Security for Distributed E-Service Composition, 3rd VLDB Workshop

on Technologies for E-Services, Rome, Sep.01, LNCS 2193.

--- GRID PORTALS ---32. G.Aloisio, M.Cafaro, P.Falabella, C.Kesselman, R.Williams, "Grid Computing on the Web using the

Globus Toolkit", Proc. HPCN Europe 2000, Amsterdam, Netherlands, Lecture Notes in Computer Science, Springer-Verlag, N. 1823, 32-40, 2000

--- EARTH OBSERVATION SYSTEMS ---33. Curlander, McDonough, “Synthetic Aperture Radar”, A Volume in the Wiley Series in Remote Sensing,

J.A. Kong Series Editor

125

34. Ulaby, Moore, Fung, “Microwave Remote Sensing: Active and Passive”, vol. I-II-III, Addison Wesley Publishing Company

35. R. Loizzo, et al, “I-PAF SRTM X-SAR Processing Chain : Algorithms and Results”, IGARSS 2000. 36. G.Aloisio, M.Cafaro, A.Mongelli, R.Williams, "The use of Computational Grids for a Dynamic Earth

Observation System " Proceedings of SCI2000, Orlando, Florida

--- GRID APPLICATIONS FOR ASTROPHYSICS ---37. F.Pasian, 1996, in: Astronomical Data Analysis Software and Systems 5, PASP 101, p. 479-48838. Cappellaro, E., Baruffolo, A., Cascone, E., Nazaryan, H., Piotto, G., 1999,OmegaCam: a wide field CCD

camera for the VST in Telescopes, instruments and data processing for astronomy in the year 2000, ed. G. Sedmak, Astro Tech. Journal SAIt

--- GRID APPLICATIONS FOR BIOLOGY ---39. Apostolico and R. Giancarlo, Sequence alignment in Molecular Biology, (Invited Paper), B. Math in

Support of Theor Biology.40. Beltrame F., Koslow S.H. Neuroinfomatics as a Megascience Issue. IEEE Trans. Inform. Techn. Biom.,

1999, 3(3):239-24041. Milanesi L, D'Angelo D, Rogozin IB. GeneBuilder: interactive in silico prediction of gene structure.

Bioinformatics. 1999 Jul-Aug;15(7-8):612-21.

--- GRID APPLICATIONS FOR MOLECULAR VIRTUAL REALITY ---42. P.Pasini, C.Zannoni, eds. Advances in the Computer Simulations of Liquid Crystals, Kluwer, Dordrecht,

(2000); 43. M.Capitelli, C.M. Ferreira, B.F.Gordiets and A.I.Osipov, "Plasma kinetics inatmospheric gases" Springer

Verlag (2000); 44. Laganà, S. Crocchianti, A. Bolloni, V. Piermarini, R. Baraglia, R. Ferrini, D. Laforenza, Computational

granularity and Parallel models to scale up reactive scattering calculations - Computer Physics Communications 128/1-2, 295-315 (2000);

--- GRID APPLICATIONS FOR GEOPHYSICS ---45. Brasseur, G. et al., PRISM project description, http://www.knmi.nl/euroclivar/prism/46. M. Fischer and A. Navarra, GIOTTO: a coupled atmosphere-oceangeneral circulation model, the

tropics, Quaterly Journal of the Royal Meteorological Society, 126, 1991-2012, 2000.

---LARGE-SCALE PLATFORMS AND GRID COMPUTING PRINCIPLES---1. Foster I., Kesselman C., Tuecke S., The Anatomy of the Grid: Enabling Scalable Virtual Organizations,

January 2001 2. Foster I. and Kesselman C. (editors), The Grid: Blueprint for a Future Computing Infrastructure, Morgan

Kaufmann Publishers, USA, 1999.3. Gannon D., Component Architecture for High Performance, Distributed Meta-Computing

http://www.computer.org/dsonline/gc/gcpapers.htm4. Keahey K., Beckman P., and Ahrens J., Ligature: Component Architecture for High Performance

Applications, The International Journal of High Performance Computing Applications, Volume 14, No 4, Winter 2000, pp. 347-356

5. Clark D., Face-to-face with Peer-to-Peer Networking, IEEE Internet Computing, January 2001, 18-21.6. Gentzsch W. (editor), Special Issue on Metacomputing: From Workstation Clusters to Internet

computing, Future Generation Computer Systems, No. 15, North Holland, 1999.7. Baker M., Buyya R., and Laforenza D., The Grid: International Efforts in Global Computing, Proceedings

of SSGRR 2000 Computer & eBusiness Conference, Scuola Superiore G. Reiss Romoli, L’ Aquila, July 31 – August 6, 2000

8. Report on the Workshop on Grid Technologies, Directorate-General Information Technology, Research Networking, European Commission, Brussels, 22-23 June 2000

9. Laforenza D. E-Grid – Toward the Creation of a European Grid Community, ERCIM NEWS, N. 42, July 2000, p. 42

10. ERCIM News No.45, April 2000, SPECIAL THEME – GRIDS: e-Science to e-Business11. Codenotti B., Laforenza D., Italian Initiatives in Grid Computing, ERCIM NEWS, N. 45, April 2001, pp.

13-1312. Boyd D., Jeffreys P., Goodfellow J., Steenman-Clark L. and Allan P., UK e-Science Grid Programme,

ERCIM NEWS, N. 45, April 2001, pp. 11-12

126

13. Report on the Programme consultation meeting “Large-scale Distributed Systems and Platforms, including GRID-based Systems”, Brussels, 10-11 April 2001, European Commission, Directorate-General Information Technology

--- PROGRAMMING MODELS, TOOLS AND ENVIRONMENTS ---14. M. Vanneschi, "PQE2000: HPC tools for industrial applications", IEEEConcurrency, 6(4):68-73, 199815. Vanneschi, “Heterogeneous HPC environments”, invited paper, 4th Int. Euro-Par Conference,

Southampton, Sept. 1998, in D. Pritchard and J. Reeve (Eds.), Lecture Notes in Computer Science, vol. 1470, pp. 21-34.

16. B. Bacci, M. Danelutto, S. Pelagatti, M. Vanneschi, "SkIE: A heterogeneous environment for HPC applications", Parallel Computing, 25:1827-1852, Dec. 1999

17. Armstrong R., Gannon D., Geist A., Keahey K., Kohn S., McInnes L., Parker S., and Smolinski B., Toward a common component architecture for high performance scientific computing. In Proceedings of the 8th High Performance Distributed Computing (HPDC'99), 1999

18. C. Lee, S. Matsuoka, D. Talia, A. Sussman, N. Karonis, G. Allen, J. Saltz, "A Grid Programming Primer", Global Grid Forum 2, WashingtonD.C., July 2001.

19. Newhouse S., Mayer A., and Darlington J., A Software Architecture for HPC Grid Applications, A. Bode et al. (Eds.): Euro-Par 2000, LNCS 1900, pp. 686–689, 2000, Springer-Verlag

--- SCIENTIFIC LIBRARIES ---20. L. A. Freitag, W. D. Gropp, P. D. Hovland, L. C. McInnes, B. F. Smith, Infrastructure and Interfaces for

Large-Scale NumericalSoftware, in Proceedings of the 1999 International Conference on Parallel and Distributed Processing Techniques and Applications, June28 - July 1, 1999, Las Vegas, Nevada.

21. M. D'Apuzzo, M. Lapegna, A. Murli, Scalability and Load Balancing in Adaptive Algorithms for Multidimensional Integration, ParallelComputing, vol. 23, 1997.

22. Petitet, S. Blackford, J. Dongarra, B. Ellis, G. Fagg, K. Roche, S. Vadhiyar, Numerical Libraries and The Grid, Technical Report UT-CS-01-460, University of Tennessee, 2001.

23. S. Filippone, M. Colajanni, PSBLAS: a Library for Parallel Linear Algebra on Sparse matrices, ACM Transactions on Mathematical Software, 26(4) , 2000.

--- KNOWLEDGE BASED PROCESSES ---24. Workshop on Large-Scale Parallel KDD Systems, Aug. 1999, in conjunction with 5th ACM SIGKDD Int.

Conf. on KDD 99.25. P. Ferragina, F. Luccio, “String search in coarse-grained parallel computers”, Algorithmica: Special

issue on Coarse-Grained Parallel Computers, Editor Frank Dehne, vol. 24, 177--194, 1999. 26. M. Coppola, M. Vanneschi, “High-performance Data Mining with Skeleton-based Structured Parallel

Programming”, accepted to Parallel Computing, 2001.

--- HIGH SPED PHOTONIC NETWORKS ---27. Fumagalli and M. Tacca, "Differentiated Reliability (DiR) in WDM Ring without Wavelength Converters",

in Proc. IEEE ICC 2001, Helsinki, Finland, June 2001.28. V. Sander, W.A. Adamson, I. Foster, A. Roy, “End-to-end provision of Policy Information for networks

QoS”, Proc. of the 10th IEEE Symposium on High Performance Distributed Computing (HPDC-10), August 2001.

29. Banerjee, J. Drake, J.P. Lang, B. Turner, K. Kompella, Y. Rekhter, "Generalized multiprotocol label switching: an overview of routing and management enhancements", IEEE Communications Magazine, volume 39, number 1, January 2001.

--- SECURITY ---30. Arcieri, Cappadozzi, Naggar, Nardelli, Talamo. Coherence Maintenance in Cooperative Information

Systems: the Access Key Warehouse Approach, Int. J. of Cooperative Information Systems, Sep.01. 31. Seltzsam, Boerzsoenyi, Kemper: Security for Distributed E-Service Composition, 3rd VLDB Workshop

on Technologies for E-Services, Rome, Sep.01, LNCS 2193.

--- GRID PORTALS ---32. G.Aloisio, M.Cafaro, P.Falabella, C.Kesselman, R.Williams, "Grid Computing on the Web using the

Globus Toolkit", Proc. HPCN Europe 2000, Amsterdam, Netherlands, Lecture Notes in Computer Science, Springer-Verlag, N. 1823, 32-40, 2000

--- EARTH OBSERVATION SYSTEMS ---

127

33. Curlander, McDonough, “Synthetic Aperture Radar”, A Volume in the Wiley Series in Remote Sensing, J.A. Kong Series Editor

34. Ulaby, Moore, Fung, “Microwave Remote Sensing: Active and Passive”, vol. I-II-III, Addison Wesley Publishing Company

35. R. Loizzo, et al, “I-PAF SRTM X-SAR Processing Chain : Algorithms and Results”, IGARSS 2000. 36. G.Aloisio, M.Cafaro, A.Mongelli, R.Williams, "The use of Computational Grids for a Dynamic Earth

Observation System " Proceedings of SCI2000, Orlando, Florida

--- GRID APPLICATIONS FOR ASTROPHYSICS ---37. F.Pasian, 1996, in: Astronomical Data Analysis Software and Systems 5, PASP 101, p. 479-48838. Cappellaro, E., Baruffolo, A., Cascone, E., Nazaryan, H., Piotto, G., 1999,OmegaCam: a wide field CCD

camera for the VST in Telescopes, instruments and data processing for astronomy in the year 2000, ed. G. Sedmak, Astro Tech. Journal SAIt

--- GRID APPLICATIONS FOR BIOLOGY ---39. Apostolico and R. Giancarlo, Sequence alignment in Molecular Biology, (Invited Paper), B. Math in

Support of Theor Biology.40. Beltrame F., Koslow S.H. Neuroinfomatics as a Megascience Issue. IEEE Trans. Inform. Techn. Biom.,

1999, 3(3):239-24041. Milanesi L, D'Angelo D, Rogozin IB. GeneBuilder: interactive in silico prediction of gene structure.

Bioinformatics. 1999 Jul-Aug;15(7-8):612-21.

--- GRID APPLICATIONS FOR MOLECULAR VIRTUAL REALITY ---42. P.Pasini, C.Zannoni, eds. Advances in the Computer Simulations of Liquid Crystals, Kluwer, Dordrecht,

(2000); 43. M.Capitelli, C.M. Ferreira, B.F.Gordiets and A.I.Osipov, "Plasma kinetics inatmospheric gases" Springer

Verlag (2000); 44. Laganà, S. Crocchianti, A. Bolloni, V. Piermarini, R. Baraglia, R. Ferrini, D. Laforenza, Computational

granularity and Parallel models to scale up reactive scattering calculations - Computer Physics Communications 128/1-2, 295-315 (2000);

--- GRID APPLICATIONS FOR GEOPHYSICS ---45. Brasseur, G. et al., PRISM project description, http://www.knmi.nl/euroclivar/prism/46. M. Fischer and A. Navarra, GIOTTO: a coupled atmosphere-oceangeneral circulation model, the

tropics, Quaterly Journal of the Royal Meteorological Society, 126, 1991-2012, 2000.

128

3.3 Descrizione della Ricerca ORGANIZZAZIONE A LIVELLI DELLA PIATTAFORMA GRID

Le tematiche e i risultati attesi del progetto sono organizzati secondo una struttura a livelli della piattaforma della Grid a elevate prestazioni, secondo lo schema mostrato nella figura seguente.

Si assume che le risorse di calcolo hardware-software (desk-top, server, macchine parallele, cluster, etc, con sistemi operativi e strumenti di sviluppo) presenti nei nodi della Grid siano costituite da sistemi disponibili commercialmente. Partendo dal basso, il primo livello è quello delle infrastrutture per l’interconnessione e la comunicazione. Oltre ai supporti disponibili su Internet, ed in particolare la rete della ricerca GARR, il progetto prevede che, su scala metropolitana, venga studiata, e sperimentata in alcuni siti, una rete ad alta banda realizzata con tecnologia ottica.

Il livello successivo è quello del Middleware per piattaforme di Grid a elevate prestazioni. Questo livello offre i servizi per la gestione del sistema e lo sviluppo di applicazioni in modo interoperabile, sicuro, di qualità e a elevate prestazioni. All’interno si riconoscono ulteriori strati, in particolare:

servizi base, come storage access e data intensive core services, scheduling, monitoring,

servizi a più alto livello, come knowledge services, resource brokers, sicurezza e portali per Grid.

Il livello successivo è quello degli strumenti e ambienti di programmazione. Qui si intende definire e sviluppare nuovi strumenti e ambienti che permettano lo sviluppo di applicazioni in modo il più possibile indipendente dall’infrastruttura fisica e dai sistemi sottostanti, quindi enfatizzando gli aspetti dalla programmabilità, portabilità, interoperabilità, riuso in un contesto di elaborazione altamente dinamico e eterogeneo. L’aspetto della gestione delle risorse, già presente a livello Middleware per quanto riguarda i servizi di base, è ulteriormente caratterizzato a livello dell’ambiente di programmazione per quanto riguarda il supporto ottimizzato al modello di programmazione adottato dall’ambiente stesso o dai PSE.Al livello delle applicazioni per e-Science-and-Engineering, il progetto prevede cinque aree in cui sviluppare dimostratori della tecnologia Grid ad alte prestazioni:

Astronomia,

Osservazione della Terra,

129

Programming Tools and EnvironmentHigh Level

Internet/GARROptical NetworksHigh-Performance Networks

Data IntensiveCore ServicesSchedulingMonitoringCommunication

Knowledge ServicesSecurity ResourceBrokers

•Components•Libraries•Adaptability•Resource Mngt•Cost Models•MultidisciplinaryProblemSolving Env.E-Science & EngineeringApplications•Astrophysics•Geology•Biology•Earth Observation Systems•Chemistry•Environment

MiddlewareLow LevelGridPortals

Biologia,

Chimica Computazionale,

Geofisica.

Tutti i dimostratori usano gli strumenti ed i servizi messi a disposizione dai livelli sottostanti. Per permettere uno sviluppo efficiente del progetto, ed per garantire che le applicazioni forniscano feedaback alla definizione e progettazione degli strumenti e servizi, i dimostratori verranno inizialmente sviluppati utilizzando servizi middleware già disponibili (Globus, DataGrid) e strumenti di programmazione esistenti. In una fase finale, i dimostratori verranno sperimentati sull’ambiente di programmazione sviluppato dal progetto.

WORKPACKAGES

Le attività del progetto sono organizzate nei Workpackeges (WP) introdotti nella sezione 3.1. La seguente tabella mostra la partecipazione delle Unità di Ricerca ai WP (R = responsabile, P = partner):

****** Al livello delle Reti ad Elevate Prestazioni sono definiti i seguenti WP:

*** WP1. GRID ORIENTED OPTICAL SWITCHING PARADIGMS*** WP2. HIGH PERFORMANCE PHOTONIC TESTBEDGli aspetti dell'architettura di una rete ottica dedicata al supporto di grid computing saranno analizzati. Gli obiettivi ricoprono 5 aree principali: controllo di topologie virtuali: attivazione, manutenzione, disattivazione analisi dell'affidabilità e sistemi di tolleranza ai guasti (sia probabilistici che deterministici) supporto per qualita' del servizio (QoS) e classi di servizio (CoS) modelli di servizi di rete per supportare l'ampia gamma di richieste dall' ambiente di grid computing architetture avanzate per switch fotonici.

******* Al livello del Middleware sono definiti i seguenti WP:

*** WP3. GRID DEPLOYMENTWP3 si propone di progettare, implementare e certificare una infrastruttura di grid per le comunità scientifiche. Ogni comunità è caratterizzata da propri modelli di dati e bisogni applicativi. Ci si propone di verificare le potenzialità dei servizi base di grid esistenti e di adattare e sviluppare nuovi servizi di grid di alto livello. Per progettare e implementare l’architettura di GRID più adatta per le applicazioni citate, l’attività del WP si svilupperà gradualmente. Dapprima si valuteranno i servizi offerti da Globus, Datagrid e altri servizi esistenti sulla base dei bisogni delle applicazioni. Poi l’infrastruttura di grid verrà implementata e verrà definito un piano per lo sviluppo di nuovi servizi e l’adattamento di quelli esistenti. L’ultimo passo consiste nell’implementazione e certificazione di un grid a livello di produzione

*** WP4. SECURITY L'obiettivo e' analizzare, nel contesto dell'architettura GRID, le problematiche inerenti la creazione di sistemi di servizio per la cooperazione tra organizzazioni indipendenti basata sull'uso di PKI, con particolare riferimento all'estensione ed alla rimodulazione dei requisiti di sicurezza nel contesto interorganizzativo, alla certificazione dell'andamento di servizi di natura interorganizzativa ed alla difesa da tentativi di intrusione. L'estensione dei meccanismi della PKI all'infrastruttura di griglia e' basato sulla introduzione di componenti architetturali ortogonali rispetto a quelle che supportano l'inter-operabilita' delle applicazioni.

*** WP5. DATA INTENSIVE CORE SERVICES

130

WP1 WP2 WP3 WP4 WP5 WP6 WP7 WP8 WP9 WP10 WP11 WP12 WP13 WP14 WP15

ASI P R

CNIT R R

CPS P P P P R P

INFN R R R R R

ISTI P R R P P R

ISTM R

Il WP si propone di sviluppare e certificare il “middleware” necessario per offrire un accesso sicuro ad massiccie quantità di dati con spazio di indirizzamento comune, di spostare e replicare dati ad alta velocità da un sito all’altro in area geografica. Lo scopo è quello di specificare, sviluppare, integrare e testare nuovi strumenti e servizi di “middleware” per gestire e condividere grandi quantità di dati in un ambiente di produzione molto eterogeneo ma puntando soprattutto ad alte prestazioni ed alta efficienza.

*** WP6. KNOWLEDGE SERVICES FOR INTENSIVE DATA ANALYSIS, INTELLIGENT SEARCHING, AND INTELLIGENT QUERY ANSWERING Le attività organizzate in questo workpackage hanno come obiettivo comune la costruzione di servizi di middleware per processi Knowledge Base, in particolare:_ estrazione e ricerca di informazione e conoscenza da fonti strutturate (basi di dati o data warehouses) e semi-strutturate (ad esempio, pagine web o documenti XML);_ utilizzo dell’informazione estratta per servizi ad alte prestazioni di search e di query answering, sia dal punto di vista dell’efficienza che da quello della qualità di servizio.Nel contesto generale della piattfrioma Grid del progetto, tutte le attività mirano a sfruttare gli strati sottostanti o per realizzare in modo distribuito specifici algoritmi (ad esempio, specifici algoritmi di data mining o specifiche componenti dei motori di ricerca) o per produrre componenti progettate in modo da essere integrabili nell’ambiente per Grid.

*** WP7. GRID PORTALS Scopo di questo WP è la progettazione e sviluppo di un portale per la grid che sarà sviluppata ed usata dalla comunità scientifica coinvolta nel presente progetto. Il portale consentirà l’accesso facile e trasparente alle risorse eterogenee (computers, archivi di dati e di applicazioni condivise e servizi informativi). Il portale sarà prima sviluppato come un tool generale e fornirà importati funzionalità per l’accesso trasparente alle risorse della grid, come la Gestione del profilo degli utenti, l’accesso ai Servizi Informativi, la sottomissione ed il monitoraggio dei jobs sottomessi, il Brokering delle risorse ed il trasferimento files ad alte prestazioni tra nodi della grid. Al WP7 contribuirà il progetto e sviluppo di un Knowledge Broker, che consentirà anche l’accesso a metadati tramite visioni multidimensionali .

****** Al livello degli Strumenti e Ambienti di Programmazione sono definiti i seguenti WP:

*** WP8. HIGH-PERFORMANCE COMPONENT-BASED PROGRAMMING ENVIRONMENTObiettivo del WP è la definizione e realizzazione di un ambiente multidisciplinare che permetta di trattare tutte quelle caratteristiche di dinamicità ed eterogeneità che sono tipiche dell’ambiente GRID fornendo al contempo alte prestazioni. Punto di partenza sono i risultati di progetti precedenti (PQE2000, ASI-PQE), in particolare tutti quelli relativi ad ambienti strutturati. Lo sviluppo dell’ambiente sarà basato su tecnologia a componenti, per permettere l’utilizzazione dei risultati ottenuti anche al di fuori dell’ambiente inteso come oggetto monolitico. L’ambiente metterà a disposizione in forma integrata librerie scientifiche ad alte prestazioni e i risultati ottenuti verranno utilizzati per la realizzazione di specifici PSE. Il WP comprende anche la realizzazione di servizi di resource management specificamente progettati in linea con le scelte effettuate nella realizzazione dell’ambiente integrato di sviluppo e realizzati con caratteristiche di affidabilità, scalabilità ed alte prestazioni.

*** WP9. GRID-ENABLED SCIENTIFIC LIBRARIESIl WP è rivolto all’individuazione ed all’analisi delle problematiche connesse ad un utilizzo efficiente, affidabile e trasparente di librerie scientifiche in ambienti computazionali di tipo Grid ed alla valutazione delle ricadute di tali problematiche sullo sviluppo degli algoritmi numerici e del relativo software. In particolare, si intende realizzare uno o più nuclei di libreria scientifica adatti all'uso nell'ambito di applicazioni su griglie computazionali. La ricerca è organizzata in quattro attività: software per Algebra Lineare Sparsa, per l’Ottimizzazione, per l’Analisi, la Ricostruzione ed il Riconoscimento di Immagini, per la realizzazione di un Laboratorio Virtuale di Image Processing.

****** Al livello dei Dimostratori Applicativi sono definiti i seguenti WP:

*** WP10. GRID APPLICATIONS FOR ASTROPHYSICSQuesto WP ha come scopo la realizzazione di tre dimostratori che provino la fattibilita` del porting di applicativi di intreresse astrofisico nella struttura di una Grid nazionale. I dimostratori scelti sono i seguenti:

131

1) Accesso e consultazione di basi di dati astronomici; 2) Facility per il recupero ed elaborazione di immagini da VST; 3) Distribuzione del monitoraggio di osservazioni da telescopi lontani e esecuzione in quasi real time di target di opportunità. Lo scopo del progetto e` dimostrare come sia possibile fornire alla comunita` scientifica un ambiente multi-funzionale e distribuito che permetta l’utilizzo di nodi specializzati (osservativi, computazionali, d’archivio) della Grid. Essendo le tre applicazioni sopra citate in buona misura complementari, uno scenario plausibile può prevedere che un ricercatore monitori l’osservazione su un telescopio remoto, elabori in modo distribuito i dati raccolti, e li confronti con dati d’archivio.

*** WP11. GRID APPLICATIONS FOR EARTH OBSERVATION SYSTEMS L’obiettivo delle attività previste in questo WP è la realizzazione di un dimostratore applicativo nell’ambito delle Osservazioni della Terra che, utilizzando la tecnologia GRID e mettendo a frutto le precedenti esperienze nel campo dell’HPC (ASI-PQE2000), abbia come finalità quella di rendere disponibili agli utenti finali i dati, i prodotti ed i servizi che sono patrimonio di ASI come risultato delle diverse missioni (dati acquisiti durante missioni spaziali ed aeree finanziate dall’ASI, dati disponibili all’ASI grazie ad accordi Internazionazionali, dati acquisiti durante campagne di validazione). Il progetto prevede prevede lo sviluppo di un’infrastruttura dedicata alla gestione dei dati e finalizzata ad interfacciare gli utenti tramite un portale dedicato che interconnette i diversi Centri di Eccellenza, distribuiti sul territorio ed individuati dai gruppi partecipanti, presso i quali si svolgeranno le attività di processamento a valore aggiunto dei dati e le simulazioni con i modelli. Il sistema permetterà ad un utente remoto di inoltrare la propria richiesta (un’informazione ottenibile a partire dal dato telerilevato), attivando le opportune elaborazioni presso i centri interessati ed usando, così, in modo trasparente le piattaforme di calcolo distribuite per effettuare applicazioni computazionali complesse.

*** WP12. GRID APPLICATIONS FOR BIOLOGY La ricerca riguarda i settori della Bioinformatica, della Neuroinformatica, e della Genetica delle Popolazioni.L'attivita' nell'area della Bionformatica si propone di fornire un ambiente integrato su GRID per l'analisi filogenetica, l'analisi comparativa su larga scala, ed l'analisi e la sintesi di proteine. Alcuni aspetti importanti associati a questi studi saranno quelli di gestione di grandi basi di dati distribuite su GRID, di rappresentazione di strutture, di visualizzazione remota e distribuita di dati.Nel settore della Neuroinformatica, la ricerca si propone di verificare le potenzialità del GRID nella diagnostica neurologica, distribuendo su GRID diversi livelli di applicazione, tra cui gestione di banche dati multimodali distribuite, modellizzazione e simulazione di complessi pathways genetico-metabolici e cellulari.Nel settore della genetica di popolazioni la ricerca è volta ad automatizzare e a distribuire le risorse di calcolo mediante la tecnologia GRID i processi d'analisi, predizione ed annotazione funzionale dei geni partendo dalle regioni del genoma umano identificate mediante l'ausilio dagli alberi genealogici di popolazione.

*** WP13. GRID APPLICATIONS FOR MOLECULAR VIRTUAL REALITYIl calcolo su grid e' in ingrediente di primaria importanza per effettuare ricerca innovativa in scienze molecolari. La mole di calcolo necessaria e la natura distribuita delle conoscenze coinvolte nella realta' virtuale molecolare e nelle simulazioni realistiche di sistemi molecolari rende indispensabile la implementazione delle relative procedure computazionali su grid. Le potenzialita' delle tecniche di calcolo su grid verranno utilizzate a fondo in tre aree delle conoscenze scientifiche di interesse per la progettazione di nuovi famaci, di materiali innovativi, di dispositivi di calcolo e utili per la comprensione di fenomeni di interesse ambientale e tecnologico. Le aree in questione sono quelle dello stato gassoso, degli stati condensati e delle molecole di grandi dimensioni. A questo scopo verranno costituiti dei laboratori distribuiti su scala geografica. Questi laboratori-grid costituiranno un importante banco di prova per lo sviluppo di strumenti e ambienti che consentano agli studiosi di scienze naturali di girare sulla piattaforma di calcolo distribuita su grid le loro applicazioni in modo trasparente. Dei dismostratori di queste applicazioni chimiche complesse su grid verranno sviluppate per effettuare simulazioni a priori di fasci molecolari gassosi, analisi di proprieta' dei cristalli liquidi, studi di funzionalita' e attivita' di molecole di grandi dimensioni e test delle nanostrutture dei materiali.

*** WP14. GRID APPLICATIONS FOR GEOPHYSICS Nel settore della Geofisica la ricerca si propone di concentrarsi su due attività: (1) l’immersione in griglia degli strumenti per il disegno, l’esecuzione e l’analisi di simulazioni numeriche e (2) l’immersione in griglia di strumenti per la gestione e l’accesso a reti remote di sensori.

****** Infine, è previsto il WP15 per le attività di gestione e coordinamento del progetto:

*** WP15: COORDINAMENTO, FORMAZIONE E DISSEMINAZIONE DEI RISULTATI

132

LAYERED ORGANIZATION OF GRID PLATFORM

The themes and expected results of the project are organized around a layered structure of the high-performance Grid platform, according to the following figure:

It is assumed that the hardware-software resources (desk-top, servers, parallel machines, clusters, etc, with operating systems and development tools) present in the Grid nodes are commercially available systems. Starting from the bottom, the first level is the infrastructure for interconnection and communication. Besides the available Internet supports, and in particular the GARR networkl of research, a high-bandwidth, optical network for Grid computing will be studied and experimented in some sites of the project.

The next level is the Middleware for high-performance Grid platforms. This level offers the core services for system resource management and application development according to the requirements of interoperability, security, quality and high performance. Two inner layers are recognized inside the Middleware:

- base services, as storage access and data intensive core services, scheduling, monitoring,

- high level services, as knowledge services, resource brokers, security and Grid portals.

At the the next level we have the programming tools and environment. Here we aim to define and to develop new tools and environments for the application development in a manner which is as most independent as possible from the underlying infrastructure and systems. The most important issues are issues programmability, portability, interoperability, and reuse in a highly dynamic and heterogeneous context. The resource management issue, whose base services are present at the Middleware level, is further characterized at the programming environment level, concerning the optimised support to the programming model adopted by the environment or by PSEs: in particular, the resource management tools of this level must help the environment tools to produce “performance portable” versions of the sdame applications according to the available resources and to the application context.

At the level of the applications for e-Science and Engineering, we take into account five areas in which demonstrators of the high-performance Grid technology will be developed:

133

Programming Tools and EnvironmentHigh Level

Internet/GARROptical NetworksHigh-Performance Networks

Data IntensiveCore ServicesSchedulingMonitoringCommunication

Knowledge ServicesSecurity ResourceBrokers

•Components•Libraries•Adaptability•Resource Mngt•Cost Models•MultidisciplinaryProblemSolving Env.E-Science & EngineeringApplications•Astrophysics•Geology•Biology•Earth Observation Systems•Chemistry•Environment

MiddlewareLow LevelGridPortals

Astronomy

Earth Observation Systems

Biology

Computational Chemistry

Geophysics.

All the demonstrators will use the underlying services and tools. In order that an efficient planning of the project and feedbacks from the applications onto the services and tools are granted, initially the demonstrators will be developed by means of available middleware services (Globus, DataGrid) and programming tools. In a final phase of the project, the demonstrators will be experimented using the programming environment of the project.

WORKPACKAGES

All the activities of the project are organized around the Workpackages (WP) introduced in Section 3.1. The following table shows the participation of the Research Units to the WPs (R = responsible, P = partner):

****** At the level of High-Performance Networks the following WP are defined:

*** WP1. GRID ORIENTED OPTICAL SWITCHING PARADIGMS*** WP2. HIGH PERFORMANCE PHOTONIC TESTBEDThe features of the telecommunication network heavily impact grid computing applications running on top of it. We will investigate all the aspects of the architecture of an optical network architectures dedicated to the support of grid computing applications. Needless to say that thanks to an increased speed, transparency to the bit rate (to some extent), the potential benefits are improved capacity, flexibility, scalability with an impact on scheduling effectiveness. The main areas we plan to cover both theoretically and experimentally are: -) virtual topology management: set-up, maintenance, tear-down-) reliability analysis and survivability guarantees (both stochastic and deterministic)-) quality of service (QoS) and class of service (CoS) provisioning-) network service models to support the broad range of requirements peculiar to the grid computing environment.-) enhanced architectures of photonic switches

******* At the level of Middleware the following WP are defined::

*** WP3. GRID DEPLOYMENTThe goal of this package is to design, deploy and validate a grid infrastructure forscientific communities including Astrophysics, Biology and Geophysics, Earth Observation. Each scientific community has his own data model and applications needs. The goal is to check the validity of the existing grid basic services and to adapt and develop specific high level grid services. In order to design and implement the most suitable grid architecture for the above research applications the work package activity will go through different steps. Initially Globus, Datagrid and other current grid services will be evaluated on the basis of the applications requirements. Then the grid infrastructure will be deployed and a plan for the

134

WP1 WP2 WP3 WP4 WP5 WP6 WP7 WP8 WP9 WP10 WP11 WP12 WP13 WP14 WP15

ASI P R

CNIT R R

CPS P P P P R P

INFN R R R R R

ISTI P R R P P R

ISTM R

development of new services and the adaptation of the existing ones will be defined. The last step consists in a production quality grid deployment and validation.

*** WP4. SECURITY The goal is to analyze Grid-enabled solutions for the craetion of service systems to support the PKI-based cooperation among independent organizations: in particular, extension and re-modularization of security requirements in inter-organization contexts, certification of inter-organization services, and defence from intrusion attempts. The extension of PKI mechanisms to the Grid infrastructure is based upon the introduction of architectural components which are orthogonal wrt the components supporting the interoperability of operations.

*** WP5. DATA INTENSIVE CORE SERVICESThe work package will develop and demonstrate the necessary middleware to enable the secure access of massive amounts of data in a global name space, to move and replicate data at high speed from one geographical site to another. The goal is to specify, develop, integrate and test new tools and middleware services to manage and share large amounts of data in a highly heterogeneous and as well high performance and high-throughput production-quality grid environment.

*** WP6. KNOWLEDGE SERVICES FOR INTENSIVE DATA ANALYSIS, INTELLIGENT SEARCHING, AND INTELLIGENT QUERY ANSWERING The general goal of these activities is the realization of Middelware services in the context of Knowledge based processes, in particular:extraction and search of information and knowledge from structured sources (data bases or data warehouses) and semistructured sources (e.g., Web pages or XML documents),utilization of extracted information for high-performance search and query answering services, stressing the issues of efficiency and quality of service.In the context of the Grid platform of the project, these activities aim to exploit the underlying Middleware layers to realize specific algorithms in a distributed manner (e.g., data mining or components for search engines) and/or to produce components that can be integrated in a Grid environment.

*** WP7. GRID PORTALS Goal of this activity is to design and implement a grid portal that will be deployed and used by the collaboration involved in the project. The grid portal will enable easy and transparent access to a heterogeneous set of resources providing a consistent, easy to use interface to a complex environment, including computers, data storage archives, information servers, and shared code repositories. The portal will be first developed as a general grid access tool to provide important functionalities related to the User's Profile Management, the access to Information Services, the Job Submission and Status tracking, the Resources Brokering and the high performance File Transfer. Moreover a Knowledge Broker will be developed as one of the tasks of the WP7. Goal of this task will be the design and development of a new search engine/knowledge broker, allowing the access to grid resources metadata and web information, through multidimensional views.

****** At the level of Programming Tools and Environment the following WP are defined:*** WP8. HIGH-PERFORMANCE COMPONENT-BASED PROGRAMMING ENVIRONMENTThis WP aims to define and realize a multidisciplinary environment able to deal with all the dynamicity and heterogeneity features of a Grid and, at the same time, able to achieve high performance. The starting point is represented by the PQE2000 and ASI-PQE2000 projects on structured parallel programming environments. The new environment will be based upon the components technology, in order to exploit the results produced by distinct and different environments. High-performance scientific libraries will be integrated in the environment. The achieved results will be exploited in the realization of specific PSEs. This WP includes the realization of resource management services, specifically designed fro the implementation of the programming environment and realized according to reliability, scalability and efficiency criteria.

*** WP9. GRID-ENABLED SCIENTIFIC LIBRARIESThis WP is aimed at the individuation and the analysis of the issues concerned with an efficient, reliable and “transparent” use of scientific libraries over computational grids and to the analysis of the impact of such problems on the development of numerical algorithms and software. In particular, work will be devoted to the development of one or more scientific library kernels, that can be used in applications over the Grid. he research is organised into four activities: parse Linear Algebra software, timization software, software for the Image Processing, Reconstruction and Recognition, software tools for the development of a Virtual Laboratory for Image Processing.

135

****** At the level of Applicative Demonstrators the following WP are defined:

*** WP10. GRID APPLICATIONS FOR ASTROPHYSICSThis WP aims at demonstrating the feasibility of porting three basic “killer” astrophysical applications in the framework of a national Grid structure. The selected demonstrators are the following: 1) access to data from astronomical archives and data bases; 2) facility for the retrieval and processing of VST data; 3) distributed monitoring of observations from remote telescopes and near-real-time execution of opportunity targets. The purpose of a project is to demonstrate the feasibility of allowing scientists to be provided with a multi-function environment allowing the exploitation of specialized nodes (observational, computational, archival) of the Grid. Since the three above-mentioned applications are in a sense complementary, a reasonable scenario would be for a scientist to monitor an observation performed at a remote telescope, to process on a distributed computing environment the data gathered, while comparing the results with archived data.

*** WP11. GRID APPLICATIONS FOR EARTH OBSERVATION SYSTEMS The aim of tasks in this WP is to realize an applicative test-bed in the Earth Observation field. This test-bed will be based on the GRID technology and will finalize the previous experiences in the High Performance Computing (ASI-PQE2000). The scope is to allow the final users access to the wide asset of EO data, products and services acquired during the space and air missions that ASI financed, obtained by ASI thanks to international agreements, acquired during validation campaigns. The project foresees the development of a middleware devoted to manage EO data, finalized to interconnect the various Center of Excellence, geographically distributed and identified by the groups joined to the project, responsible of value-added processing activities and of simulations. The projected system will allow the remote users to submit its query (an information that can be generated starting from the remote sensed data), starting the proper data processing near the Center of Excellence interested in, and then using the computing platforms geographically distributed to carry out complex computations.

*** WP12. GRID APPLICATIONS FOR BIOLOGY The proposed research activity in the area of bioinformatics has the objective of providing an integrated environment on a GRID for the phylogenetic analysis, the comparative analysis at a large scale, and the comparison and synthesis of proteins. Important aspects associated with these studies are those of handling large distributed datasets on a GRID, of representation of structures, and remote and distributed visualization.Concerning the Neuroinformatics area, the research has the goal of evaluating the GRID potentials with respect to neurological diagnosis, by distributing different levels of applications on the GRID, such as the management of distributed multimodal databases, and the modelling and simulations of complex genetic-metabolic and cellular pathways. In the sector of population genetics, the intention of research is to automate and distribute computing resources by means of GRID technology for the process of analysis, prediction and annotation of genes beginning from the region of human genome identified with the help of family trees of populations.

*** WP13. GRID APPLICATIONS FOR MOLECULAR VIRTUAL REALITYIn computational molecular sciences progress in grid computing is a vital ingredient of innovative research. The amount of computational work needed and the distributed nature of the know how involved in molecular virtual reality and realistic simulations of molecular systems make it necessary to structure this type of research on a grid. The potentialities of grid techniques will be exploited in three areas of scientific knowledge relevance for the design of new drugs, of innovative materials, of computing devices and for the understanding of environmental fenomena and technological processes. These areas arethe gas phase, the condensed phase and large molecules. To this end geographically distributed laboratories will be constituted. These grid laboratories will represent a test-bed to develop tools and environments allowing natural scientists to use distributed computing platforms to run in a transparent way complex computational applications. Demonstrators of these grid complex chemical applications will be developed to a priori simulate some molecular beams gas phase processes, investigate liquid crystal properties, study large molecule functionalities and activities and test material nanostructures.

*** WP14. GRID APPLICATIONS FOR GEOPHYSICS The geophysical applications will be concentrated on two activities (1) the embedding in the GRID of the tools for the design, execution, monitoring and analysis of numerical simulation data and observation data, (2) the embedding into the GRID of tools for the handling and access of remote sensor networks.

****** Finally, WP15 to host coordination, training, education and result dissemination is planned.

136

3.3.1 Tabelle riassuntive dell'articolazione in workpackage (WP)Tabella sinottica della distribuzione dei mesi/uomo per WP (mesi/uomo) nº Responsabile

scientifico dell'UR WPn. 1

WPn. 2

WPn. 3

WPn. 4

WPn. 5

WPn. 6

WPn. 7

WPn. 8

WPn. 9

WPn. 10

WPn. 11

WPn. 12

WPn. 13

WPn. 14

WPn. 15

TOTALE

1.   LAFORENZA DOMENICO

0  0  12  29  0  301  0  419  0  0  30  77  0  0  26  894

2.   ROSI MARZIO 0  0  0  0  0  0  0  0  0  0  0  0  566  0  0  5663.   MURLI ALMERICO 0  0  0  85  0  107  0  225  242  0  76  0  0  0  0  7354.   MAZZUCATO

MIRCO0  0  106  0  53  0  0  0  0  213  0  154  0  98  0  624

5.   PRATI GIANCARLO

510  165  0  0  0  0  0  0  0  0  0  0  0  0  0  675

6.   MILILLO GIOVANNI

0  0  0  0  0  0  156  0  0  0  372  0  0  0  0  528

  TOTALE 510  165  118  114  53  408  156  644  242  213  478  231  566  98  26  4.022

137

Tabella sinottica della distribuzione dei costi complessivi per WP (MLit) nº Responsabile

scientifico dell'UR 

WPn. 1

WPn. 2

WPn. 3

WPn. 4

WPn. 5

WPn. 6

WPn. 7

WPn. 8

WPn. 9

WPn. 10

WPn. 11

WPn. 12

WPn. 13

WPn. 14

WPn. 15

TOTALE

1.   LAFORENZA DOMENICO

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

264 (136.34 KEuro) 

0 (0.00 KEuro) 

3.415 (1763.70 KEuro) 

0 (0.00 KEuro) 

5.004 (2584.35 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

282 (145.64 KEuro) 

913 (471.53 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

297 (153.39 KEuro) 

10.175 (5254.95 KEuro)

2.   ROSI MARZIO

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

4.580 (2365.37 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

4.580 (2365.37 KEuro)

3.   MURLI ALMERICO

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

1.264 (652.80 KEuro) 

0 (0.00 KEuro) 

955 (493.22 KEuro) 

0 (0.00 KEuro) 

2.428 (1253.96 KEuro) 

3.389 (1750.27 KEuro) 

0 (0.00 KEuro) 

514 (265.46 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

8.550 (4415.71 KEuro)

4.   MAZZUCATO MIRCO

0 (0.00 KEuro) 

0 (0.00 KEuro) 

1.300 (671.39 KEuro) 

0 (0.00 KEuro) 

650 (335.70 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

2.601 (1343.30 KEuro) 

0 (0.00 KEuro) 

1.826 (943.05 KEuro) 

0 (0.00 KEuro) 

1.281 (661.58 KEuro) 

0 (0.00 KEuro) 

7.658 (3955.03 KEuro)

5.   PRATI GIANCARLO

5.789 (2989.77 KEuro) 

2.621 (1353.63 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

8.410 (4343.40 KEuro)

6.   MILILLO GIOVANNI

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

1.402 (724.07 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

3.168 (1636.14 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

0 (0.00 KEuro) 

4.570 (2360.21 KEuro)

  TOTALE 5.789 (2989.77 KEuro) 

2.621 (1353.63 KEuro) 

1.300 (671.39 KEuro) 

1.528 (789.15 KEuro) 

650 (335.70 KEuro) 

4.370 (2256.92 KEuro) 

1.402 (724.07 KEuro) 

7.432 (3838.31 KEuro) 

3.389 (1750.27 KEuro) 

2.601 (1343.30 KEuro) 

3.964 (2047.24 KEuro) 

2.739 (1414.58 KEuro) 

4.580 (2365.37 KEuro) 

1.281 (661.58 KEuro) 

297 (153.39 KEuro) 

43.943 (22694.67 KEuro)

138

3.3.2 Descrizione dettagliata dei WP secondo le attività individuate

Workpackage 1

Referente del Workpackage Cognome CASTOLDI Nome PIERO Qualifica Professore Associato Ente di appartenenza Consorzio Nazionale Interuniversitario per le Telecomunicazioni (CNIT) 

Descrizione delle attività

Attività 1

Durata (mesi) 18 Durata (mesi/uomo) 80 Costo totale previsto 712 

(367.72 KEuro) 

Descrizione

Titolo dell'attività: Modelli di traffico, servizi di rete e architettura del bandwidth brokerResponsabile di attività: Roberto Battiti (CNIT-TN)Gruppi partecipanti: CNIT-TN, Lab. Naz. Reti FotonicheEstensione temporale dell'attività: mesi 1-18

Un primo obiettivo dell'attività è lo studio di modelli di traffico adatti all'impiego delle reti ottiche come infrastruttura di comunicazione per il supporto del grid computing. Un secondo obiettivo è la determinazione di linee guida per la progettazione di un'architettura di bandwidth broker che, prendendo in considerazione i modelli di traffico e le primitive di servizio messe a disposizione dai livelli inferiori, associ alle richieste di comunicazione le risorse opportune.

Le reti per il grid computing differiscono enormemente nei loro scopi, campi applicativi, dimensioni, tempi di operatività, ma condividono un vasto insieme di problematiche:- relazioni di condivisione molto flessibili, che vanno dal client-server al peer-to-peer- condivisione di varie risorse, da programmi, files e dati, ai calcolatori- livello di controllo dettagliato sull'uso delle risorse condivise- diverse modalità d'uso, da mono a multi-utente, con ottimizzazioni basate sulle prestazioni o sul costo, con problematiche di qualità del servizio, pianificazione, fornitura delle risorse, rendicontazione- modelli del traffico generato dalle applicazioni, per rendere possibili previsioni che facilitino l'allocazione ottimale delle risorse.

La modellazione del traffico gioca un ruolo importante, in quanto consente di approssimare il comportamento della rete e di prevedere la qualità del servizio (QoS) offerta. L'analisi del traffico in situazioni differenti ha recentemente usato processi "self-similari" per modellare il traffico a larga banda. Metodi sviluppati recentemente sono: Circulant Modulated Poisson Processes (CMPP) (un sottoinsieme dei Markov Modulated Poisson Processes) e fractional AutoRegressive Integrated Moving Average (ARIMA), che rappresentano modelli affidabili per sistemi a code in condizioni di carico intenso.In particolare, si studieranno ed estenderanno tali modelli di traffico per una stima affidabile del traffico generato da differenti richieste dai computer connessi al mezzo ottico.

Il bandwidth broker (BB) che intendiamo studiare è un componente essenziale del sistema, situato fra le richieste delle applicazioni e le primitive di servizio supportate dalla rete ottica. La sua funzione

139

fondamentale è quella di associare alle richieste provenienti dalle applicazioni i servizi più opportuni. Per soddisfare le proprie necessità di comunicazione, le applicazioni invocano i moduli middleware attraverso primitive di servizio ad alto livello, i quali, a loro volta, comunicano con il BB.

Per realizzare uno schema di comunicazione complesso, il BB crea le topologie virtuali corrispondenti alle necessità dell'applicazione. Prevediamo che quest'attività sarà richiesta nella fase di avvio, nel caso di schemi statici di comunicazione, oppure in istanti specifici durante l'elaborazione, nel caso di schemi variabili. Inoltre, il BB si occupa di creare e gestire connessioni individuali fra varie coppie sorgente-destinazione. Il BB considera anche richieste di qualità del servizio (Quality of Service, QoS), quando si tratta di stabilire se creare una topologia virtuale o di scegliere il paradigma di commutazione (di circuito, di optical burst switching, a pacchetto) per un dato schema di comunicazione.

L'attività sarà completamente sinergetica con le attività 1.2, 1.3 e 1.4 sui protocolli e i servizi. Prevediamo che la modellazione del traffico avrà un ruolo importante nella definizione dei vari modelli di commutazione. Inoltre, i modelli di commutazione fondamentali studiati nell'attività 1.4 e le tecniche di ingegneria del traffico, protezione e ristabilimento studiate nell'attività 1.2 forniranno i blocchi di base per la costruzione del bandwidth broker.

Activity title: Traffic models, network services and bandwidth broker architectureActivity leader: Roberto Battiti (CNIT-TN)Partecipant groups: CNIT-TN, Lab. Naz. Reti FotonicheTime span of the activity: months 1-18

A first objective of the activity is to study traffic models that are appropriate for the use of the optical network as a communication infrastructure to support grid computing. A second objective is to establish design guidelines for a bandwidth broker architecture that, by considering the traffic models and the service primitives provided by the lower layers, maps communication requests to appropriate resources.

Grid computing networks vary greatly in their purpose, scope, size, duration, but share a broad set of common requirements:- highly flexible sharing relationships, ranging from client-server to peer-to-peer- sharing of various resources ranging from programs, files, and data, to computers- a precise level of control over how shared resources are used- diverse usage modes, ranging from single-user to multi-user, from performance-sensitive to cost-sensitive, therefore embracing issues of quality of service, scheduling, provisioning of resources, accounting- models of the traffic originating from the intended applications, also to enable predictions to support the appropriate resource allocation.

Traffic modelling plays an important role, because it allows an approximation of the network behaviour and a prediction of the offered quality of service (QoS). The analysis of measured broadband traffic in different scenarios has recently considered self-similar processes. Recently developed models are: Circulant Modulated Poisson Processes (CMPP) (a subset of Markov Modulated Poisson Processes) and fractional AutoRegressive Integrated Moving Average (ARIMA), which represent suitable models for queuing systems under heavy load conditions.More specifically, the traffic models will be studied and extended to a reliable estimation of the traffic generated by the different requests from the computers connected to the optical medium.

The bandwidth broker (BB) that we intend to study is a crucial component of the system, lying between the application requests and the service primitives supported by the optical network. Its basic function is to map requests coming from grid-computing applications onto the appropriate services. The applications, to satisfy their communications requirements, will invoke middleware modules through high-level service primitives that in turn, will communicate with the bandwidth broker.

For a complex communication pattern, the BB will create appropriate virtual topologies matched to the communication needs. We expect that this activity will be required in the initialisation phase, for the case of static communication patterns, or at specific points during the computation for the case of varying communication requirements. In addition, the BB creates and manages individual connections between different source-destination pairs. The BB will also consider Quality of Service (QoS) requirements when

140

choosing, for example, if a virtual topology should be created, or which switching paradigm (circuit switching, optical burst switching, or optical packet switching) should be used for a given communication pattern.

The activity will be fully synergistic with activities 1.2 and 1.4 regarding protocols and services. We expect that traffic modelling will be of interest to define the various switching models. In addition, the basic switching models studied in activity 1.4 and the traffic engineering and protection/restoration techniques studied in activity 1.2 will endow the bandwidth broker with suitable building blocks.

Risultati attesi

* Sviluppo di modelli affidabili per il traffico generato da applicazioni di grid computing.

Il principale obiettivo dello sviluppo di modelli di traffico è la simulazione efficace sia del comportamento della rete che degli algoritmi per l'allocazione delle risorse. Di conseguenza, l'attività in questa fase inizierà con uno studio teorico delle tecniche esistenti per la modellazione del traffico. Verranno considerate ed esaminate in dettaglio sia tecniche di modellazione che indicatori di traffico.Le tecniche rilevanti verranno verificate sperimentalmente utilizzando un simulatore di rete, in modo da stabilire quali sono maggiormente adatte ad ambienti di grid-computing. La sperimentazione verrà utilizzata per sottolineare i vantaggi ed i limiti di ciascuna tecnica e per guidare la successiva fase di sviluppo, in cui verranno sperimentati modelli affidabili di traffico per reti ottiche di grid-computing.L'attività in questa fase terminerà con la descrizione e la verifica sperimentale dei modelli di traffico, e con il confronto con il traffico reale generato nell'anello ottico alla base dell'architettura di grid-computing proposta.

* Linee guida per la progettazione dell'architettura del bandwidth broker e dei servizi di rete

Il nostro scopo è la progettazione di un bandwidth broker in grado di rendere effettivamente disponibili le risorse di rete non appena vengono richieste da un'applicazione, mantenerle per tutta la durata della transazione e infine liberarle. Questa procedura è leggibile a due livelli di astrazione: l'allocazione di risorse può essere logica o fisica. L'assegnazione logica attua una rete logica completamente connessa, dove una parte dell'ampiezza di banda viene allocata su richiesta ai diversi servizi per una frazione di tempo (Time Division Multiple Access, TDMA). L'assegnazione fisica, invece, riguarda l'allocazione diretta di un "canale" per un servizio.Nella scelta delle risorse di comunicazione (lunghezze d'onda, intervalli temporali periodici o altro) da allocare a ogni invocazione delle applicazioni, il bandwidth broker deve tener conto dell'evoluzione del sistema e delle possibili future richieste, allo scopo di ridurre quanto possibile la probabilità di rifiuto o di sospensione di un'invocazione. Inoltre la decisione del bandwidth broker dipende da un numero potenzialmente elevato di modelli di servizio e di parametri comunicati dal middleware. Ne segue che il problema dell'allocazione ottimale delle risorse dev'essere risolto per mezzo di euristiche e approssimazioni, sia a causa dell'informazione incompleta sulle future richieste, sia per l'intrinseca complessità.

Di conseguenza, si possono individuare due obiettivi parziali nella determinazione di un'architettura di bandwidth broker. Il primo obiettivo è l'analisi e la realizzazione di tecniche euristiche per l'allocazione quasi ottimale, prendendo in considerazione i protocolli e i servizi specifici; in particolare si esploreranno alcune tecniche di ricerca locale già realizzate per problemi simili. Inoltre, si adatteranno questi metodi ai modelli di traffico specifici del grid computing (vedi sopra), giungendo così alla creazione di ecniche ad hoc.Il secondo obiettivo è la progettazione di un'architettura di bandwidth broker flessibile, che prenda in considerazione la migrazione in corso verso le reti puramente ottiche, e che si adatti a tutti gli stadi intermedi in continuo sviluppo. In questo caso, ci aspettiamo di trarre profitto dal lavoro svolto dalle attività 1.3 e 1.4 (vedi oltre). Un altro campo d'azione in questo contesto è l'integrazione di alcuni metodi promettenti come DiffServ nell'architettura del bandwidth broker.Inoltre, la nostra attività teorica è strettamente connessa con l'attività sperimentale del WP2, in quanto le simulazioni non evidenziano sempre i possibili inconvenienti che possono insorgere nella realizzazione.

* Development of reliable models of the traffic generated by grid-computing applications.

141

The main goal is to effectively simulate the behaviour of the network. The research activity will start with a theoretical study of the existing techniques for traffic modelling. Modelling approaches as well as traffic indicators will be considered and examined in detail.The significant approaches will be tested using a network simulator. Testing will be used to underline the advantages and limits of each approach and to drive the following phase of development, where reliable traffic models will be experimented for grid-computing optical networks.The activity of this task will end with the description and testing of the traffic models, and with a comparison with the actual traffic generated in the optical ring at the basis of the proposed grid-computing architecture.

* Guidelines for the bandwidth broker and network services design architecture

Our expected result is to design a bandwidth broker that provides the actual availability of the network resources as soon as they have been requested by the application, maintains them for the duration of the transaction and de-allocates them. This procedure can be read at two different levels of abstraction, i.e. the allocation of the resource can be logical or physical. A logical assignment envisions a fully connected logical mesh where a portion of the link bandwidth is allocated on-demand to the different services for a fraction of time (Time Division Multiple Access, TDMA). A physical assignment, instead, envisions a direct allocation of a "channel" for a service.When choosing communication resources (wavelengths, timeslots and so on) to be allocated to individual requests, the bandwidth broker must take into account the system state and the possible future requests, in order to reduce blocking probability. Moreover, the bandwidth broker choices depend on a virtually large number of service models and parameters provided by the middleware in its request. As a consequence, the optimal resource allocation problem has to be solved by heuristics and approximations, because of incomplete information about future requests and intrinsic computational complexity.

Two partial objectives can be envisioned in establishing a bandwidth broker architecture. The first is the analysis and exploitation of heuristic techniques for near-optimal allocation; in particular some local-search techniques already implemented for similar problems shall be explored. Moreover, heuristic methods will be adapted to the specific traffic models of grid computing (see above), leading to the creation of ad hoc techniques.The second objective is the design of a flexible bandwidth broker architecture which takes into account the migration towards all-optical networks, adapting to the intermediate stages. In this area, we expect to take advantage of work developed under Activities 1.3 and 1.4 (see below). Another branch of activity in this context will be the integration of some promising methods such as DiffServ into the bandwidth broker architecture. This theoretical activity is strictly connected with the experimental activity of WP2, because simulations do not always highlight possible pitfalls that may arise in real implementations.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. PRATI GIANCARLO   80  712 

(367.72 KEuro) Attività di tipo prevalentemente teorico. 

     80  712 (367.72 KEuro) 

  

142

Attività 2

Durata (mesi) 18 Durata (mesi/uomo) 86 Costo totale previsto 828 

(427.63 KEuro) 

Descrizione

Titolo dell'attività: Grid computing su reti ottiche a stato dell'arte

Responsabile di attività: Piero Castoldi (Lab. Naz. Reti Fotoniche)

Gruppi partecipanti: Lab. Naz. Reti Fotoniche, CNIT-TN, UTD

Estensione temporale dell'attività: mesi 1-18

Il progetto di una rete fotonica a supporto del grid computing deve fare fronte a numerose sfide tecnologiche. I potenziali benefici del grid computing su strato ottico sono immediatamente quantificabili in termini di incremento della velocità di trasmissione e della QoS che può essere supportata da tale rete. Le reti ottiche attuali operano utilizzando uno stack protocollare dove IP è mappato su ATM, a sua volta trasportato da SONET/SDH eventualmente trasmesso in modalità WDM. Il piano di controllo di una rete multistrato IP-ATM-SDH/SONET-WDM è adatto ad essere studiato ed ottimizzato a secondo dei servizi che devono essere supportati. Nello specifico il grid computing comprende una famiglia di servizi con diversi requisiti in termini di QoS, durata della transazione, richieste di banda che invoca un piano di controllo dedicato che possa gestire tutte queste esigenze. Sebbene SONET/SDH e ATM forniscano una infrastruttura di base per la gestione della rete e il supporto della QoS, essi non sono stati specificatamente progettati per trasportare efficientemente traffico IP, soprattutto a causa della lunghezza fissa delle trame SONET/SDH e delle celle ATM. La tramatura SONET/SDH, infatti, è basta sulla scala di campionamento della voce pari a 8kHz e la trama contiene l'informazione dell'haeader all'interno del payload.

Uno dei maggiori benefici di SONET/SDH negli ultimi decenni è stato la sua capacità di aggregare tributari in modalità TDM sia a bassa che ad alta velocità. Oggi, comunque, queste capacità di aggregazione sono anche alla portata degli emergenti router e switch al gigabit

D'altra parte la tecnica ATM era stata introdotta per consentire il TDM statistico a supporto dei servizi integrati a larga banda. A causa dell'elevato rapporto header-payload della cella, l'overhead di banda di ATM, è un problema serio in molte applicazioni. In aggiunta agli overhead di una architettura multi-strato, in termini di efficienza di banda e costo di ciascuno strato, gli apparati reali SONET/SDH e ATM consentono solamente di fornire un TDM fisso. La multiplazione statistica del traffico rimane un compito degli stati superiori, ad es. IP

Nell'ambito della definizione di una nuova architettura per reti a commutazione di pacchetto basate su tecnologie fotoniche, come mostrato in figura, dovranno essere trattati aspetti del piano di controllo che estendano le funzioni tradizionali delle reti a pacchetto e delle reti di trasporto completamente ottiche (optical transport networks). Tale integrazione deve quindi ereditare ed essere completamente compatibile con le soluzioni tradizionali illustrate nella parte alta della figura (dove sono presenti anche i protocolli di routing multicast che rappresentano una delle funzioni più rilevanti delle reti a commutazione di pacchetto).

143

Con riferimento agli elementi di core and edge illustrati in figura, si intende progettare ed analizzare per via teorica e simulativa le funzioni di· Traffic engineering· Fault management· Performance managementrelative a configurazioni di rete che possano essere particolarmente adatte ad applicazioni di calcolo distribuito e netputing. Saranno considerate a questo proposito topologie estremamente robuste, quali le reti di tipo Manhattan, sulla quale verranno implementate funzioni di restoration da condizioni di fault della rete basate su generalizzazioni di tecniche di routing con garazie della QoS (constrained based routing).

Activity title: Grid computing on state of the art optical networks

Activity leader: Piero Castoldi (Lab. Naz. Reti Fotoniche)

Partecipant groups: Lab. Naz. Reti Fotoniche, CNIT-TN, UTD

Time span of the activity: months 1-18

A photonic network designer has to face many technical challenges to support grid computing. The potential benefits of grid computing over optical is immediate due to improved transmission speed and QoS that can be supported by such a network. State-of-the art optical networks operates using a protocol stack where IP is mapped on ATM, in turn, carried by SONET/SDH possibly transmitted in a WDM channel. The control plane of a multilayer IP-ATM-SDH/SONET-WDM network is suitable to be investigated and optimized according to the different services which are supported. Specifically, grid-computing comprises a family of services with different constraints in terms of QoS, duration of the transaction, bandwidth requirements which calls for a dedicated control plane which can accommodate all these needs. Although SONET/SDH and ATM provide a basic infrastructure for network management and Quality of Service (QoS) support, they were not specifically designed to efficiently support IP traffic, mainly because of the fixed length of SONET/SDH frames and ATM cells. SONET/SDH framing is based on an 8 kHz voice synchronized time sample and the frame embeds the header information within the payload.

On the one hand, one of the main benefits of SONET/SDH over the past decade has been its fixed Time Division Multiplexing (TDM) capability to groom tributary traffic ranging from slow to high rate connections. Nowadays, similar grooming capabilities are, however, provided also by emerging gigabit switches and routers.

On the other hand, ATM cells were introduced to provide statistical TDM in support of broadband integrated services. Due to the relative high header-to-payload ratio of the short cell, the ATM bandwidth overhead is, however, a practical concern in several applications. In addition to the overheads of a multi-layer architecture, in terms of both bandwidth efficiency and cost of each layer, actual ATM and SONET/SDH

144

equipment allows only to provision fixed TDM. Statistical multiplexing of traffic remains thus a task for the upper layers, e.g., IP..

In the framework of the definition of a new architecture for optical packet switched networks based on photonic technologies, as shown in the figure, features of the control plane that extend traditional functions of optical transport layer must be investigated. This integration must inherit and must be compatible with the traditional solutions shown in the upper part of the figure (where also the multicast routing protocols are present - one of the most important features of a packet switched network).

With reference to the core and edge elements shown in the figure, we intend to design and analyze theoretically and by simulation the following functions:· Traffic engineering· Fault management· Performance managementin network configuration that can be particularly suitable for distributed applications and grid computing. We will consider extremely robust topologies, such as Manhattan networks on which we plan to deploy fault-restoration functions based on generalizations of routing techniques with QoS guarantee (constrained based routing).

Risultati attesi

*) Regole di traffic engineering per adattare agli scenari di grid computing le reti IP esistenti che usnoa strati di trasporto eterogenei. Infatti Ethernet, ATM, SDH e le reti fotoniche fanno uso di differenti protocolli di segnalazione e di meccanismi di gestione della QoS. Sia l'overlay model ed il peer-to-peer model saranno utilizzati come alternative praticabili per il traffic engineering ed i risultati raggiunti saranno valicati direttamente sul field trial descritto nel WP2

*) Tecniche di protezione e ripristino automatiche per reti ottche supportanti il grid computing

Le tecniche di protezione sono tradizionalmente fatte utilizzando cammini di riserva pre-allocati. Al contrario, nuove tecniche di re-instradamento, che automaticamente re-instradano il traffico dopo un guasto sono di grande interesse. Infatti, una protocollo automatico di riprisittino è più efficiente perché le risorse di rete sono utilizzate in maniera più efficiente, anche se ha lo svantaggio di un più lungo tempo di ripristino. Saranno individuati schemi di riprisitino sia centralizzati che distribuiti. L'attività prevederà una analisi comparativa di differenti soluzioni di re-instradamento veloce con particolare attenzione ai tempi di riprisitino e all'ottimizzazione delle risorse di rete.

145

Specificatamente sarà analizzato per via teorica/simulativa un componente di rete quale il Lambda router mostrato in figura.

Per esso verranno estese alcune funzioni già previste dagli standard rivolte a mantenere il più possibile sui router di edge le funzioni di processing relative al calcolo di route alternativi (con vincoli prestazionali) minimizzando nel contempo il traffico di segnalazione che tipicamente i router coinvolti in una condizione di guasto inviano alla rete. Le nuove funzionalità di protection saranno quindi basate sul calcolo in real-time di nuovi percorsi di routing e non su soluzioni pre-computate memorizzate all'interno degli apparati. Le funzioni di restoration proposte saranno basate su un approccio parametrico nell'ambito del quale sarà studiato il caso peculiare delle reti per applicazioni di calcolo distribuito. In funzione delle prestazioni richieste sarà inoltre verificata la capacità della rete nell'offrire un trasporto dell'informazione adeguato alle esigenze di tale contesto applicativo sia in condizioni di funzionamento regolare della rete sia in condizioni recupero da situazioni di guasto.

*) Traffic engineering rules to adapt to grid computing the existing IP networks scenarios which uses heterogeneous transport layers.

In fact Ethernet, ATM, SDH and photonic networks make use of different signaling protocols and in terms of handling QoS. Both the overlay model and the peer-to-peer models will be used as feasible alternative for traffic engineering and the theoretical results will be validated directly on the field trial described in WP2

*) Automatic protection and restoration techniques for optical networks supporting grid computing.

Restoration is accomplished by using the pre-allocated "spare" path. Novel fast rerouting techniques, which automatically re-route

the traffic after a failure occurrence are of great interest. In fact, an automatic restoration protocol is more efficient because network resources are more efficiently used, but it has the drawback of a larger restoration time. Both decentralized and centralized automatic restoration techniques will be investigated. The activity will focus on a comparative analysis of different solutions of fast rerouting with special attention to the restoration delay and to optimization of network resources.

Specifically, we will analyze by theory/simulation a real component such as the lambda router shown in the figure below.

146

We will extend some functionalities already envisioned by the standards in order to maintain as much as possible the processing functions in the edge router for the evaluation of alternative paths (with performance constraints) minimizing at the same time the signalling traffic that the router involved in a fault normally send to the networks. The new functionalities of protection and restoration will be based on the real-time evaluation of new routing paths instead of pre-computed solutions stored in the devices. The restoration functions proposed will be based on a parametric approach and within it we will study the special case of the networks dedicated to distributed computing. Depending on the performance requested we will also verify the capability of the network to offer a transport of the information adequate to the application context both for normal operating conditions and for restoration from fault situations

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. PRATI GIANCARLO   86  828 

(427.63 KEuro) Attività di tipo prevalentemente teorico 

     86  828 (427.63 KEuro) 

  

Attività 3

Durata (mesi) 24 Durata (mesi/uomo) 122 Costo totale previsto 1.399 

(722.52 KEuro) 

Descrizione

Titolo attività: Scenari di migrazione verso reti completamente otticheResponsabile di attività: Franco Callegati (CNIT-BO)Gruppi partecipanti: CNIT-BO, Lab. Naz. Reti Fotoniche, UTD, CNIT-TNEstensione temporale dell'attività: mesi 1-24

147

Lo scenario evolutivo da un'architettura di rete del tipo IP-ATM-SONET/SDH-WDM ad una che preveda l'interazione diretta di IP su WDM prevede una progressiva semplificazione della struttura a strati al fine di evitare la sovrapposizione di funzioni comuni a diversi livelli di rete e di migliorare l'utilizzazione della larghezza di banda riducendo l'ammontare di informazioni aggiuntive di controllo (overhead).Ciononostante, la nuova architettura deve comunque garantire, almeno nelle linee generali, le medesime funzioni di rete dell'architettura precedente. Diverse sono le problematiche da affrontare per ottenere tali obiettivi; in questa attività prevediamo di occuparci di quelle relative ai seguenti punti:

1. metodi per realizzare reti private virtuali (VPN) ottiche con gestione della qualità di servizio, con particolare riferimento all'utilizzo di un modo di trasferimento orientato alla connessione quale MPLS;2. modo di trasferimento e formato dei dati da utilizzare nella rete ottica;3. analisi della complessità delle funzioni di controllo da implementare nei nodi della rete, rispettando sia i requisiti di riconfigurazione veloce dei percorsi virtuali, sia le limitazioni temporali imposte dalla tecnologia ottica adottata;4. metodologie per il recupero da malfunzionamenti e guasti di tipo multi livello (multi-layer survivability), studiando soluzioni che affrontino tale problema in modo integrato.

In questa attività intendiamo studiare i problemi legati all'integrazione di MPLS in una rete ottica ad altissima velocità basata su DWDM. In particolare, ci focalizzeremo sulla definizione di algoritmi di assegnazione degli LSP alle lunghezze d'onda con lo scopo di minimizzare i fenomeni di congestione e garantire un adeguato supporto della qualità di servizio.

La granularità della commutazione e il formato del pacchetto ottico (nel caso di commutazione fotonica a pacchetto) saranno esaminate per ottenere un compromesso tra i requisiti imposti dalla tecnologia ottica e la necessità di una efficiente cooperazione con il protocollo IP e con le applicazioni di grid computing. In particolare, uno dei problemi fondamentali nell'ambito della commutazione fotonica a pacchetto è il formato del pacchetto ottico (di lunghezza fissa o variabile, oppure costituito da un treno di pacchetti, ecc.). Da un lato i tempi di commutazione dei dispositivi ottici pongono dei limiti alla lunghezza dei pacchetti, dall'altro il livello IP e le transazioni tipiche delle applicazioni di grid computing sono caratterizzati da segmenti di dati trasmessi secondo specifiche lunghezze e statistiche, come emergerà dallo studio dell'attività 1.1. Qui intendiamo analizzare il miglior compromesso possibile per il formato del pacchetto allo scopo di soddisfare i requisiti imposti da tecnologia ed applicazioni.

Sia che facciano uso di circuiti permanenti o semi-permanenti, di lunghi burst di dati o di pacchetti, le connessioni logiche che implementano la topologia virtuale usata dalle applicazioni di grid computing sulla rete ottica fisica necessitano di meccanismi di controllo per realizzare le funzioni di commutazione. Tali meccanismi devono soddisfare i requisiti della tecnologia ottica e del formato dei dati al fine di evitare un overhead addizionale. A causa dell'altissima velocità caratteristica delle reti ottiche, i nodi di commutazione implementano soprattutto una modalità di instradamento diretta senza memorizzazione (cut-through) e le attività di controllo devono introdurre il minor ritardo aggiuntivo possibile. Verrà studiato l'impatto delle funzionalità di controllo sul funzionamento della rete ed in particolare sulla sua efficienza e flessibilità.

Activity title: Migration scenarios to all-optical networksActivity leader: Franco Callegati (CNIT-BO)Prtecipant groups: CNIT-BO, Lab. Naz. Reti Fotoniche, UTD, CNIT-TNTime span of the activity: months 1-24

The migration scenarios from an IP-ATM-SONET/SDH-WDM network to direct mapping of IP over WDM involves a progressive network delayering to avoid overlapping of functions between different layers and improve bandwidth utilization by reducing overhead. At the same time the main network functions must be guaranteed by the new architecture. There are several problems to be investigated in order to meet these goals. In this activity we will address the following.

1. Methods to realize optical VPNs with QoS management, with particular reference to the exploitation of a connection oriented transfer mode such as MPLS.2. Transfer mode and data format to be used in the optical network.

148

3. Analysis of the complexity of the control functions to be implemented in the network nodes, to match both the requirements of fast switching of virtual paths and the time limitations imposed by the optical technology adopted.4. Multi-layer survivability, by investigating solutions that consider integrated approaches to network survivability.

We will focus on the definition of algorithms to map the LSPs onto wavelength with the aim of minimizing congestion and guarantee quality of service management.

The switching granularity and the optical packet format (in the case of optical packet switching) will be investigated to realize a trade off between the requirements of the optical technology and the need of an efficient interworking with IP and with grid computing applications. In particular in optical packet switching one of the key problems is the format of the optical packet (fixed and variable length, trains of packets etc.). The optical devices switching times, place a constraint on the length of the optical packet. At the same time the IP layer and also the typical transaction of grid computing application will be characterised by data segments to be transferred with specific lengths and statistics, as will be studied in activity 1.1. Here we plan to analyse the best possible trade off for the packet format in order to match the requirements imposed both by technology and by the application.

Whether made of long lasting circuits, data bursts or packets, the logical connections that will map the virtual topology used by the grid computing application on the physical optical network will require control mechanisms to realize the switching functions. This control must match the requirements of optical technology and the data format in order to avoid additional overhead. Because of the very high speed characteristic of the optical network the switching node will mainly implement cut through switching and any control task should introduce as little additional delay as possible. The impact of this control function on the network operation and in particular on network efficiency and flexibility will be studied.

Risultati attesi

Come primo risultato delle attività sopra descritte, intendiamo approdare al progetto di algoritmi per realizzare l'integrazione di connessioni MPLS nell'ambito di una rete ottica, con l'obiettivo di minimizzare la probabilità di congestione. Lo scopo è quello di progettare protocolli di instradamento che tengano conto della disponibilità di numerose lunghezze d'onda per ciascun collegamento in fibra ottica e di sfruttare dinamicamente tale molteplicità di risorse per risolvere situazioni di congestione che possono verificarsi nei nodi della rete, in particolare nel caso di commutazione fotonica a pacchetto. Tali algoritmi dovrebbero inoltre essere in grado di sfruttare il dominio ottico per partizionare le risorse di rete e quindi ottenere differenziazione di qualità di servizio.

Riguardo alla commutazione fotonica a pacchetto, puntiamo all'identificazione della migliore soluzione per il formato del pacchetto rispetto alle caratteristiche dei segmenti di dati tipici delle applicazioni di grid computing, ai requisiti delle funzionalità di controllo della commutazione e alle limitazioni imposte dalla tecnologia ottica disponibile. Come conseguenza di questa analisi ci aspettiamo di essere in grado di fornire linee guida per il progetto di interfacce tra stazioni-utente e rete ottica e di definire l'insieme delle informazioni di controllo da includere nell'intestazione del pacchetto ottico.

Con riferimento ai meccanismi di recupero dai malfunzionamenti, i principali obiettivi della soluzione proposta sono:· evitare contese tra le modalità di recupero di ciascun livello;· promuovere la cooperazione e la condivisione di risorse di rete aggiuntive;· aumentare la disponibilità totale ottenibile con determinati investimenti;· ridurre i costi di investimento necessari ad assicurare determinati obiettivi di recupero.

Ci aspettiamo, infine, di realizzare un'infrastruttura di rete basata su approcci euristici per ottenere una ottimizzazione combinata delle modalità di recupero dai guasti di livello IP e degli schemi di protezione WDM contemporaneamente presenti nella stessa rete a maglia. I metodi euristici sono progettati per risolvere al meglio il problema della minima distanza di lunghezza d'onda con supporto IP (IP aware Wavelength minimum Mileage - IWM), che consiste nel minimizzare il costo totale della rete, costituito dal costo in termini di distanza di lunghezza d'onda dei percorsi ottici nominali ed aggiuntivi nello strato ottico più i costi di recupero dai guasti dello strato IP.

149

We plan to design algorithms to manage the mapping of the MPLS connections on the wavelength dimension that minimize congestion. The goal is to design routing protocols that take into account of the availability of many wavelengths per links and dynamically use this multiple resource to minimize the congestion that may arise in the network nodes, in particular in the case of optical packet switching. These algorithms should also be able to use the wavelength domain to partition the network resources and therefore achieve quality of service differentiation.

Regarding optical packet switching we aim at identifying the best packet format solution with respect to the characteristic of the data segments typical of grid computing application, to the requirements of the control of the switching function and to the limitations imposed by available optical technology. As a fallback of this analysis we expect to be able to provide guidelines for the design of interfaces between end stations and the optical network as well as to define the set of control information to be included in the optical packet.

With regards to network survivability the main objectives of the solution proposed are:· avoid contention between the single layer recovery schemes· promote cooperation and sharing of spare network resources· increase the overall availability that can be obtained for a certain investment budget· decrease investment costs required to ensure a certain survivability target.

We expect to establish a framework based on heuristic approach for achieving a combined optimization of the IP restoration and the WDM protection schemes concurrently present in the same mesh networks. The heuristic is designed to optimally solve what is called the IP aware Wavelength minimum Mileage (IWM) problem. The IWM problem consists of minimizing the overall network cost, i.e., the wavelength mileage for both working and spare lightpaths in the OL plus the resilience cost of the IP layer.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. PRATI GIANCARLO   122  1.399 

(722.52 KEuro) Attività di tipo prevalentemente teorico 

     122  1.399 (722.52 KEuro) 

  

Attività 4

Durata (mesi) 24 Durata (mesi/uomo) 129 Costo totale previsto 1.678 

(866.61 KEuro) 

Descrizione

Titolo dell'attività: reti a commutazione di pacchetto ottico per grid computingResponsabile di attività: Andrea Fumagalli (UTD)Gruppi partecipanti: UTD, Lab. Naz. Reti Fotoniche, CNIT-TN, CNIT-BOEstensione temporale dell'attività: mesi 12-36

Le reti ottiche di futura generazione saranno supportate da tre differenti tecniche di commutazione:

150

i) Commutazione di Circuito (lightpaths)

I risultati dell'attività 1.2 e 1.3 verranno qui generalizzati per consentire trasmissioni all-optical supportate da "lightpath". La trasparenza e la trasmissione completamente in ottico che provengono dall'assenza di processamento elettronico nei nodi intermedi rappresentano alcuni delle caratteristiche peculiari dei lightpath. Il concetto di lightpath consente di creare topologie virtuali di rete sulla topologia fisica con le caratteristiche richieste. Possono essere creati gruppi di nodi all'interno di una topologia virtuale per supportare in maniera più efficiente lo scambio di dati per migliorare il comportamento dinamico delle applicazioni basate su grid computing.Gli altri elementi di interesse di questo workpackage sono il supporto di gradi di affidabilità differenziata, di tecniche di ripristino IP-centrico nel livello ottico e interconnessioni di rete multihop per meglio interpretare il concetto di GMPLS.Insieme a questi esempi, il concetto di Differentiated Reliability (DiR) è introdotto formalmente e applicato per fornire gradi di affidabilità differenziata (o classi) nel livello ottico (WDM) usando un meccanismo comune di protezione, come ad esempio la commutazione di percorso. In accordo con il concetto DiR, ad ogni connessione nel livello in esame viene garantito un minimo livello di ripristino, o equivalentemente una massima probabilità di guasto.

ii) Optical Burst Switching (OBS)

I punti chiave del progetto in relazione all'OBS appaiono al giorno d'oggi essere la costruzione del burst (burstification), l'organizzazione temporale dei canali, la gestione del burst offset-time e alcune regole di dimensionamento. Le caratteristiche di regolarità topologica includono la possibilità di implementare OBS senza contese e collisioni. L'architettura LightRing risolve il problema RWA con un approccio distribuito e allo stesso tempo fornisce un meccanismo di prenotazione senza contese. Si prevede di investigare e dimostrare che LightRing può essere realizzato in uno scenario di grid-computing razie al suo piccolo ritardo di accesso per i burst ottici e un utilizzo efficiente della banda con burst di dimensioni diverse.

iii) Optical packet switching

Diversi progetti, inclusi CORD, ATMOS e KEOPS hanno studiato la possibilità di implementare commutazione di pacchetto ottico con l'impiego di buffer ottici.Al momento l'unica soluzione percorribile per quel che riguarda il buffering ottico consiste nel Fiber Delay Lines (FDLs). Con la tecnologia odierna, gli FDL presentano diversi inconvenienti: ingombro eccessivo, difficoltà nel gestire pacchetti di dimensione variabile, incapacità di gestire facilmente ritardi arbitrari: i ritardi creati sono di solito multipli di una unità fondamentale di base. La ricerca si concentrerà principalmente su:· architetture a commutazione di pacchetto ottico (OPS) basate su buffer FDL che implementino algoritmi interni di scheduling dei pacchetti in modo tale da minimizzare l'utilizzo dei buffer ottici, in particolare sfruttando il dominio delle lunghezze d'onda assieme al quello del tempo;· controllo d'accesso multiplo senza contese per reti a commutazione di pacchetto ottico, una tecnica che ha il vantaggio di non richiedere buffer ottici. Le soluzioni studiate fanno affidamento su topologie regolari e considerano le problematiche del grid computing completamente ottico.

Activity title: Optical packet switching networks for grid-computingActivity leader: Andrea Fumagalli (UTD)Partecipant groups: UTD, Lab. Naz. Reti Fotoniche, CNIT-TN, CNIT-BOTime span of the activity: months 12-36

Next generation optical networks will be supported by three different switching techiniques:

i) Circuit switching (lightpaths)

Results provided in activity 1.2 and 1.3 will be generalized here to cope with the all-optical transmission provided by lightpaths. Transparency and the all-optical transmission which results in no required electronic processing at intermediate nodes represent some of the peculiar characteristics of lightpaths. The concept of lightpaths allows to create virtual topologies on top of the physical topology with the required characteristics. Clusters of computing nodes arranged in a virtual topology can then be dynamically created to support a more efficient exchange of data to support the dynamic behaviour of distributed grid computing applications.

151

Other topics of interest in this workpakage are providing differentiated reliability degrees, providing IP-centric restoration techniques in the optical layer, providing multihop networking to best harness the GMPLS concept. Consistently with this pattern, the concept of Differentiated Reliability (DiR) is formally introduced and applied to provide multiple reliability degrees (or classes) in the optical layer (WDM layer) using a common protection mechanism, i.e., path switching. According to the DiR concept, each connection in the layer under consideration is guaranteed a minimum reliability degree, or equivalently a maximum failure probability allowed for that connection.

ii) Optical Burst Switching (OBS)

The key design issues related to the OBS appear nowadays to be burst assembly (burstification), channel scheduling, burst offset-time management, and some dimensioning rules. Regular topologies features include the possibility to implement contention free and collision free OBS. One of the most promising architecture for OBS networks is the so-called LightRing concept based on a multi-wavelength ring architecture. The LightRing architecture solves the RWA problem with a distributed approach and at the same time provides a contention-free reservation mechanism. We plan to investigate and demonstrate that LightRing can be efficiently deployed in a grid-computing scenario due to its short access delays for the optical bursts and efficient bandwidth utilization under a variety of data burst sizes.

iii) Optical packet switching

A number of projects, including CORD, ATMOS and KEOPS studied the possibility of implementing optical packet switching based on optical buffering.At the moment the only viable solution to optical buffering consists in Fiber Delay Lines (FDLs). With current technology, FDLs present a number of drawbacks: bulkiness, cumbersome to deal with variable length packets, not straightforward to implement arbitrary delays: delays are usually possible in increments of a given time unit. It is therefore important to limit as much as possible the need of FDL buffers or even avoid them at all if possible. The research on this subject will investigate:§ optical packet switching architectures based on FDL buffers that implement internal packet scheduling algorithm able to minimize the use of the optical buffer, in particular by exploiting the wavelength domain in conjunction with the time domain;§ contention-free multiple access control for optical packet switched networks, a technique that has the advantage of not requiring optical buffering. The investigated solutions rely on regular topologies and address the issues of all-optical grid computing

Risultati attesi

i) Circuiti commutati (lighpaths)

La ricerca coprirà differenti gradi di affidabilità, realizzando tecniche di ripristino IP-centriche a livello ottico e realizzando reti multinodo per meglio interpretare il concetto GMPLS. Una architettura di rete basata sul GMPLS consente di realizzare reti ottiche di tipo Multihop e Multirate (M&M). Una rete M&M è una rete in cui i segnali tributari sono trasmessi su una concatenazione di canali ottici, ciascuno operante alla propria velocità di trasmissione. La velocità ottima di ciascun canale ottico è determinata da un numero di fattori che comprendono l'interfaccia nodo-terminale, la quantità di traffico multiplato, il costo dei componenti. Lo schema di ripristino che si intende analizzare è lo schema Preplanned Weighted Restoration (PWR) basato sul processo di selezione pesata alla minima probabilità di congestione al nodo sorgente, nel caso che un elemento della rete abbia un malfunzionamento, per scegliere uno dei percorsi di ripristino preinstaurati come backup per il traffico disturbato. In particolare i risultati attesi sono:-) estensioni di DiR per ambienti dinamici-) estensioni di DiR per progetti di topologie virtuali-) estensioni di PWR per topologie virtuali-) estensioni al M&M per ambienti dinamici

ii) Optical Burst Switching (OBS)

152

Si intende estendere la ricerca sulle architetture LightRing che sono il più promettente algoritmo di tipo tell-and-go per il controllo di reti OBS e per la gestione delle risorse riservate. Contrariamente a tutti gli algoritmi di assegnamento delle lunghezze d'onda dove viene ricercata una lunghezza d'onda disponibile (in qualche modo ottima) per ogni burst ottico, il LightRing distribuisce il controllo della ricerca dei burst ottici - memorizzati in una Best-Fit-Window (BFW) della coda di trasmissione (elettronica) della sorgente - che in maniera ottima adatta le risorse disponibili alle lunghezze d'onda identificate dall'arrivo del token. L'efficienza sulla larghezza di banda ottenuta dal meccanismo di prenotazione delle lunghezze d'onda proposto, è proporzionale al numero di richieste che il meccanismo può selezionare, quindi proporzionale alla dimensione del BFW. Contrariamente alla maggior parte dei meccanismi di prenotazione esistenti la cui complessità è proporzionale al numero di lunghezze d'onda, la complessità del meccanismo di prenotazione LightRing è proporzionale alla sola dimensione del BFW. Quindi l'architettura scala bene con il numero di lunghezze d'onda.

In particolare ci focalizzeremo su:-) studi su topologie regolari per supportare OBS in una architettura senza collisione/contesa.-) soluzioni basate sulla qualità del servizio nell'OBS-) estensioni del paradigma di commutazione OBS per supportare il grid computing

iii) Optical Packet Switching

Contrariamente alla maggior parte dei protocolli per reti locali tutto-ottiche, che sono basate su architetture a stella o ad anello slottato, la soluzione che abbiamo intenzione di approfondire è basata su un anello WDM non slottato, per essere così compatibile con la dimensione variabile dei pacchetti IP e con i meccanismi di auto-ripristino. Una delle caratteristiche uniche dell'anello WDM proposto è il suo Medium Access Control inserito nel protocollo Multi-Token Inter-Arrival Time (MTIT). In accordo col protocollo MTIT, più token circolano contemporaneamente nell'anello e ogni token controlla l'accesso su una distinta lunghezza d'onda. Un nodo può trasmettere su una data lunghezza d'onda ogni volta che cattura il relativo token. Le ricerche che saranno portate avanti all'interno degli scopi del workpackege sono:

-) estensione del concetto del LightRing per includere aspetti di grid computing-) estensione del concetto del LightRing per anelli virtuali multipli-) disposizione ottima dell'architettura LightRing all'interno di topologie arbitrarie per gestire meglio le richieste delle applicazioni.

i) Circuit switching (lightpaths):

Investigations will cover differentiated reliability degrees, providing IP-centric restoration techniques in the optical layer, providing multihop networking to best harness the GMPLS concept. A GMPLS based network architecture allows to implement Multi-hop Multi-rate (M&M) optical networks. A M&M network is a network in which tributary signals are transmitted over a concatenation of optical channels, with each optical channel operating at its own transmission rate. The optimal rate of each optical channel is determined by a number of factors including the end-node interface, amount of multiplexed traffic, and cost of the network components The restoration scheme that we plan to investigate is the Preplanned Weighted Restoration (PWR) scheme based on a least congestion probability weighted selection process used at the source node, in case of a network element fault, to choose one of the precomputed restoration paths as the backup to recover the disrupted traffic. Specific expected results are:

-) extensions of DiR to dynamic environment-) extensions of DiR to virtual topologies design-) extensions of PWR to virtual topologies-) extensions of M&M to dynamic environment

ii) Optical Burst Switching (OBS)

We plan to extend the investigation on LightRing architecture which is the most promising tell-and-go algorithm for OBS networks control and resource reservation. Contrary to all conventional wavelength assignment algorithms whereby an available (somehow optimal) wavelength is sought for each given optical burst, the LightRing distributed control seeks the optical burst --- stored in the

153

so called Best-Fit-Window (BFW) of the source's transmission (electronic) queue --- that optimally fits the resource availability on the wavelength identified by the arriving token. The bandwidth efficiency achieved by the proposed wavelength reservation mechanism is proportional to the number of requests that the reservation mechanism can choose from, thus it is proportional to the size of the BFW. Contrary to most of the existing reservation mechanisms whose complexity is proportional to the number of wavelengths, the complexity of the LightRing reservation mechanism is proportional only to the size of the BFW. Therefore the LightRing architecture scales well with the number of wavelengths.

Specifically we will focus on:

-) further study of regular topologies to support OBS in a contention/collision free network architecture-) Quality of Service in OBS based solutions-) extensions of OBS switching paradigm to support the grid computing environment.

iii) Optical packet switching

Contrary to most of the existing all-optical LAN protocols, which are based on star and slotted ring architectures, the solution we plan to investigate is based on an unslotted WDM ring for the purpose of compatibility with variable size IP packets and self-healing protection mechanisms. One of the unique features of the proposed WDM ring is its medium access control, termed Multi-Token Inter-Arrival Time (MTIT) protocol. According to the MTIT protocol, multiple tokens are circulated within a ring, each token controlling the access to one distinct wavelength. A node can transmit on a given wavelength every time the corresponding token is captured. The research tasks that will be carried out within the scope of the current workpackage are:

-) extensions of the Lightring concept to include aspects of the grid computing environment-) extension of the Lightring concept to multiple virtual rings-) optimal placing of Lightring architectures within arbitrary topologies to best suit application requirements

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. PRATI GIANCARLO   129  1.678 

(866.61 KEuro) Attività di tipo prevalentemente teorico 

     129  1.678 (866.61 KEuro) 

  

Attività 5

Durata (mesi) 36 Durata (mesi/uomo) 93 Costo totale previsto 1.172 

(605.29 KEuro) 

Descrizione

Titolo dell'attività: Tecnologie abilitanti per la commutazione di pacchetto otticoResponsabile di attività: Giovanni Cancellieri (CNIT-AN)Gruppi partecipanti: CNIT-AN, Lab. Naz. Reti Fotoniche, CNIT-BOEstensione temporale dell'attività: mesi 1-36

I dispositivi di elaborazione completamente ottica del segnale sono componenti chiave per la fattibilità della commutazione di pacchetto ottico. Fra essi citiamo gli Add&Drop multiplexer ottici (OADM), cross connect

154

ottici (OXC) e cross connect operanti sulle lunghezze d'onda (WXC). Si esamineranno sia gli aspetti tecnologici che architetturali per la realizzazione di tali dispositivi. Specificamente saranno considerati il progetto e l'analisi della risoluzione delle contese in nodi ottici che supportano VPN per grid-computing. Nuove strutture di commutazione completamente ottica saranno considerate. In particolare verrà presa in esame la tecnica molto promettente di auto-instradamento ottico.Un primo modo per conseguire questo obiettivo è quello in cui vengono utilizzate le possibilità di scrittura e di riconoscimento di particolari preamboli da porre opportunamente in testa ai pacchetti ottici. Viene sfruttato in questo caso il principio della convoluzione in frequenza operata da opportuni reticoli in guida. Esistono perfino sistemi per gestire dinamicamente questi reticoli, derivati dalle tecnologie che vengono ipotizzate a supporto di una modulazione OCDM (Optical Code Division Multiplexing).Un secondo modo per conseguire l'autoinstradamento ottico è quello basato sulla possibilità di inserire e riconoscere alcune lunghezze d'onda riservate alla funzione di instradamento dell'informazione. Questa tecnica può essere utilizzata sia per servizi a commutazione di circuito, sia per servizi a commutazione di pacchetto, e quindi avrebbe il vantaggio di creare il supporto per una rete completamente trasparente ai servizi veicolati. Per realizzarla, si fa uso dell'effetto di four-wave mixing in amplificatori SOA. Questa tecnica denominata "commutazione a riconoscimento di lunghezza d'onda", è una tecnologia molto promettente per OADM e OXC e si prevede di studiarne il loro impiego in questi dispositivi.Su un percorso parallelo, si prevede di includere nella struttura del commutatore il supporto per differenziazione della QoS all'interno del nodo ottico. Inoltre, sarà affrontato il problema dell'integrazione della risoluzione delle contese e della trasmissione orientata alla connessione all'interno del nodo. I WXC possono essere classificati in tre categorie: (1) semplici WXC che fanno uso di multiplatori e demultiplatori di lunghezza d'onda; (2) WXC con una matrice di commutazione spaziale intermedia fra mux e demux; (3) WXC con una matrice di commutazione spaziale ed un convertitore di lunghezza d'onda.Le caratteristiche di un WXC di tipo (1) dipendono dal numero di porte e dal numero di lunghezze d'onda impiegate, ma normalmente non garantiscono una completa connessione tra porte d'ingresso e d'uscita. L'inserzione di una matrice di commutazione spaziale consente al WXC di tipo (2) di avere una completa connessione tra porte di ingresso e porte di uscita. Inoltre se il numero di matrici spaziali è sufficientemente elevato, il commutatore è anche non-bloccante (completamente connesso per qualsiasi carico di traffico). L'impiego di un convertitore di frequenza nei WXC di tipo (3) aggiunge il grdo di libertà di poter riallocare l'assegnamento delle frequenze. Da un punto di vista tecnologico, i mux e demux WDM sono realizzati impiegando dispositivi passivi chiamati AWGM (Arrayed Waveguide Grating Multi-demultiplexer). La matrice spaziale può essere realizzata utilizzando la recente tecnica MEM (Micromachine-Electro-Mechanical), anche in modo multidimensionale. La conversione di lunghezza d'onda si può realizzare usando vari effetti "spuri": four-wave mixing in fibra ottica, modulazione cross-gain or cross-phase impiegando amplificatori SOA.

Activity title: Enabling technologies for optical packet switchingActivity leader: Giovanni Cancellieri (CNIT-AN)Partecipant groups: CNIT-AN, Lab. Naz. Reti Fotoniche, CNIT-BOTime span of the activity: months 1-36

All-optical processing devices are key components for OPS. Among them we cite optical Add&Drop multiplexers (OADM), Optical cross connect (OXC) and Wavelength cross connect (WXC). Both technological and architectural aspects of the realization of these devices will be investigated. Specifically we will address the design and analysis of contention resolution in optical nodes supporting VPN for grid computing.Novel all-optical switching fabric will be investigated. In particular the promising so-called optical self routing technique will be invstigated. A first way to realize this is to use the features of the recognization of particular preambles of the optical packets. To do that the principle of frequency convolution operated by proper fiber gratings is used. This gratings can be also dynamically managed, using the principle of OCDM (Optical Code Division Multiplexing).A second way to realize optical self-routing is based on the possibility of recognizing some wavelengths dedicated to the routing function. This technique can be used both for circuit switching services, and packet switching services which allows to support a network completely transparent to the services. In order to realize it, we make use of the four-wave mixing effect in SOA amplifiers. This technique, named Wavelength Recognization switching, is very promising as enabling technology for both OADM and OXC and plan to study its possible deployment in these devices.

155

On a parallel line, we expect to embed in the switch structure the support for optical QoS differentiation within the network node. Moreover, we will approach the problem of the integration of contention resolution and connection oriented transmission based on MPLS.WXC can be classified in three categories: (1) simple WXC which make use only of wavelength mux and demux; (2) WXC with a space switching matrix in between wavelength mux and demux; (3) WXC with a space switching matrix and a wavelength converter.The features of a WXC of type (1) depend on the number of ports and number of wavelengths employed, but usually do not warrant a complete connection between input ports and output ports. The insertion of spatial matrices allow WXC of type 2 to have a complete connection between input and output ports. Furthermore, if the number of spatial matrices is large enough the switch is also non blocking (fully connected under any traffic load). The deployment of a wavelength converter in WXC of type (3) adds the degree of freedom of rearranging the wavelength assignment.Under a technological point of view, WDM mux and demux are realized using passive devices called AWGM (Arrayed Waveguide Grating Multi-demultiplexer). The space matrix can be realized using the recently established MEM (Micromachine-Electro-Mechanical)technique, even in multidimensional fashions. Wavelength conversion can be realized exploiting various effects: four-wave mixing in an optical fiber, cross-gain or cross-phase modulation using SOA (semiconductor optical amplifiers).

Risultati attesi

* Architetture innovative OXC and WXC avanzati basati su paradigmi di autoinstradamento ottico

Si prevede di progettare tecniche di autoinstradamento ottico basate sulla possibilità di inserire e riconoscere alcune lunghezze d'onda riservate alla funzione di instradamento dell'informazione. Questa tecnica può essere utilizzata sia per servizi a commutazione di circuito, sia per servizi a commutazione di pacchetto, e quindi avrebbe il vantaggio di creare il supporto per una rete completamente trasparente ai servizi veicolati. Viene sfruttato un fenomeno non lineare denominato four-wave-mixing non collineare in dispositivi SOA. Una lunghezza d'onda di controllo, generata nel nodo, guida il segnale da instradare verso la destinazione voluta, a patto che tale segnale contenga una lunghezza d'onda di instradamento coincidente con essa. Un dispositivo elementare, caratterizzato da due porte in ingresso (una per il segnale da instradare, l'altra per quello di controllo) e due porte in uscita (dove il segnale da instradare può essere deviato), denominato WRS (Wavelength Recognizing Switch), è mostrato nella figura sottoriportata.

Il segnale in ingresso viene deviato verso la porta di uscita U2 se, tra le lunghezze d'onda di instradamento lambda_cj (j=1,2,3) che vi compaiono, vi è la lambda_cx di controllo generata localmente; altrimenti tale segnale (che oltre alle lunghezze d'onda di instradamento contiene un certo numero di lunghezze d'onda lambda_i (i=1,..,5) destinate alla trasmissione dell'informazione vera e propria) viene inoltrato verso la porta di uscita U1. L'inserzione e l'estrazione di lunghezze d'onda lungo una dorsale ottica su cui fluiscano segnali WDM o DWDM, potrà allora essere eseguita mediante apparati OADM (Optical Add-Drop Multiplexer), del tipo illustrato nella figura sottoriportata.

156

In essa figurano tre sorgenti/destinazioni di traffico locale (S/D i, i=1,2,3). Le sorgenti locali doteranno i segnali da esse generati già delle opportune lunghezze d'onda di instradamento. Il servizio è immaginato a commutazione di pacchetto, e le due fibre impiegate come linee di ritardo in retroazione nella matrice di commutazione spaziale hanno la funzione di evitare le collisioni di pacchetti in uscita. La matrice di commutazione spaziale è realizzata con una opportuna combinazione di elementi WRS. Le lunghezze d'onda di controllo per i segnali provenienti dalla dorsale sono inserite all'interno del blocco delimitato in tratteggio. Infine S è un filtro ottico che separa le lunghezze d'onda destinate a proseguire lungo la dorsale da quelle impiegate per lo scambio di informazioni tra le sorgenti/destinazioni locali, mentre S-array rappresenta un filtro ottico che svolge la stessa funzione agendo tuttavia sui segnali provenienti dalla dorsale (e può essere realizzato tramite un semplice AWGM, Arrayed Waveguide Grating Multi-demultiplexer)

* Advanced OXC and WXC based on self-routing paradigm

We expect to design optical self-routing techniques based on the capability of inserting and recognizing reserved for information routing. This technique can be both used for circuit-switched and packet switched services creating a network completely independent of the services offered. In order to realize we will exploit the non linear phenomenon of non-collinear four-wave-mixing in SOA devices. A control wavelength, generated in the node, guides the signal to be routed to the desired destination, provided that the signal contains a routing wavelength coinciding with the control wavelength. An elementary device, with two input ports and two output ports (where the signal can be routed), denominated WRS (Wavelength Recognizing Switch) is shown in figure below.

157

The input signal is deviated to output port U2 if, among the routing wavelengths lambda_cj (j=1,2,3), there is the control wavelength lambda_cx locally generated. Otherwise the signal (that contains also some other wavelengths lambda_i (i=1,2,3) for actual information transmission) is forwarded to port U1.The insertion and extraction of wavelengths along a backbone on which WDM or DWDM signals flow, can be realized using OADM (Optical Add-Drop Multiplexer) of the type shown in figure below.

We can see three sources/destination of local traffic (S/D i, i=1,2,3). The local sources will provide the data signals with proper routing wavelength. The service is envisioned as a packet switching service and the two fibers employed as feedback delay lines in the space switching matrix have the function to avoid collisions of packets at the output ports. The space switching matrix is realized with a proper combination of WRS elements. The control wavelengths for the signals coming from the backbone are inserted within a dashed block. Finally "S" is an optical filter which separates the wavelengths destined to travel through the backbone from those emplyed for information exchange between local sources/destinations. S-array is an optical filter, which serves for the same scope operating on the signals coming from the backbone (and can be realized by use of a AWGM (Arrayed Waveguide Grating Multi-demultiplexer)

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. PRATI GIANCARLO   93  1.172 

(605.29 KEuro) Attività di tipo prevalentemente teorico 

     93  1.172 (605.29 KEuro) 

  

158

Workpackage 2

Referente del Workpackage Cognome GIORDANO Nome STEFANO Qualifica Ricercatore Ente di appartenenza Consorzio Nazionale Interuniversitario per le Telecomunicazioni 

Descrizione delle attività

Attività 1

Durata (mesi) 12 Durata (mesi/uomo) 35 Costo totale previsto 624 

(322.27 KEuro) 

Descrizione

Titolo dell'attività: Ri-orientamento del testbed fotonico al grid computingResponsabile di attività: Stefano Giordano (Lab. Naz. Reti Fotoniche)Gruppi partecipanti: Lab. Naz. Reti FotonicheEstensione temporale dell'attività: mesi 1-12

Il grid-computing richiede una rete in grado di gestire diverse condizioni di traffico rappresentate ad esempio da lunghi burst di dati trasmessi, flussi di dati costanti o accessi intermittente a database remoti. E'molto importante ottimizzare l'allocazione delle risorse esistenti per supportare differenti servizi con differenti specifiche temporali. In particolare, si intende approfondire quando è più efficiente instaurare o abbattere le connessioni o mantenerle e allocarle a differenti servizi, creando una sorta di granularità temporale per l'allocazione della larghezza di banda e della connettività.Il lavoro di ricerca previsto in questa attività di tipo sperimentale si avvarrà dell'impiego del dimostratore denominato VESPER, mostrato in figura e proposto come evoluzione delle reti di trasporto già impiegate in ambito metropolitano per il calcolo parallelo. In passato infatti l'unità operativa ha contribuito alla realizzazione ed alla dimostrazione di un meta-computer basato su tecniche PVM che ha impiegato come infrastruttura di trasporto una rete a larga banda di tipo DQDB completamente connectionless e best effort. L'anello della MAN DQDB (più propriamente un folded dual bus basato su un trasmissivo PDH) sarà sostituito nel trial VESPER da una rete di Add-Drop Multiplexer D-WDM completamente ottici che pur rappresentando il più semplice componente di una rete fotonica posseggono un loro piano di controllo proprietario ed evolute funzioni di management che permettono comunque di affrontare per via sperimentale numerosi aspetti prestazionali e di recupero da condizioni di guasto che caratterizzano le peculiarità delle reti di trasporto fotoniche.L'unità di ricerca condurrà numerose esperienze relative all'integrazione di metodi di analisi sperimentale (basata su sonde, analizzatori di protocollo o sistemi di management) ed indagini simulative. In questo ambito si verificheranno sul testbed le analisi teoriche realizzate via discrete event simulation di tipo trace-drive che corrispondono alla sollecitazione di un modello della rete con dati di traffico collezionati dal field-trial reale.Il modello di riferimento per il testbed VESPER, mostrato in figura, prevede un anello DWDM su cui si attestano apparati Optical Add Drop Multiplexer (OADM) per l'estrazione e per l'inserzione nell'anello di tributari completamente ottici e apparati Optical Cross-Connect (OXC) per l'interconnessione tutto-ottica dell'anello con altre reti. Lo scenario si completa con apparati a cella (IP/ATM) e a pacchetto (IP/Gigabit Ethernet), tramite i quali le reti locali dei singoli siti afferiscono all'anello stesso; di tali apparati si intende

159

dimostrare l'integrabilità e la coesistenza in una rete metropolitana il cui livello fisico utilizza la tecnologia D-WDM. Il dimostratore VESPER rappresenta un contenitore per diversi temi di ricerca. Esso consente di connettere architetture di rete locale sostanzialmente eterogenee già presenti all'interno dei siti dei partecipanti al progetto. Le differenze principali tra queste tipologie di reti sono da imputarsi ai protocolli di segnalazione, agli eventuali meccanismi di gestione della qualità del servizio, oltre che alla differente capacità trasmissiva.

Activity title: Photonic testbed re-orientation for grid computingActivity leader: Stefano Giordano (Lab. Naz. Reti Fotoniche)Partecipant groups: Lab. Naz. Reti FotonicheTime span of the activity: months 1-12

Grid-computing requires network capable of supporting different traffic conditions such as long data burst transmission, constant streaming of data, or intermittent data access. It is very important to optimise the allocation of existing resources to support different services with different time constraints. Specifically, we plan to investigate whether it is more efficient to set-up and shutdown an existing connection or maintain it and allocate it to different services by creating some sort of time-slot granularity for bandwidth and connectivity allocation. The research work envisioned in this activity which is mainly experimental will make use of the testbed denominated VESPER (Very High Speed Photonic Experimental Ring) shown in the figure and proposed as an evolution of other transport network already employed in a metropolitan environment for parallel computing. In the past, affiliates of the research unit have contributed to the realization and demonstration of a met-computer based on PVM techniques and utilizing a transport infrastructure of Distributed Queue Dual Bus (DQDB) type completely connectionless and best effort. The ring of the DQDB MAN (more appropriately a folded dual bus based on a PDH transmission) will be substituted in the VESPER trial by a network of all-optical Add-Drop Multiplexer D-WDM that, though being the most simple component of a photonic network, have a proprietary control plane and advanced management function that allow to face experimentally many performance aspects and situations of fault recovery that may affect photonic networks.

The research unit will conduct experiments of integration between field-trial measurement methods (based on probes, protocol analysers and management system) and theoretical investigations. Within this activity we will verify and validate on the testbed the theoretical analysis through discrete event simulations of the trace-drive type, that correspond to the network operation fed with traffic patterns collected from a real field-trial.

160

The reference model for the VESPER testbed, shown in figure, envisions a DWDM ring with Optical Add Drop Multiplexer (OADM) whose add/drop ports are connected to optical tributaries or Optical Cross-Connect (OXC) for all-optical interconnection of the ring with other networks. The testbed has also availability of cell-based (IP/ATM) or packet-based traffic groomer, which are used bu local area networks to access the ring; we want to demonstrate the integrability and the simultaneous coexistence of traffic with different features in a metropolitan network supporting grid computing applications.

The VESPER testbed is a framework for a large variety of research themes. It allows to interconnect local area networks architectures widely heterogeneous already available within the sites participating to the project. The principal differences among these networks are the signalling protocols, the mechanism to handle quality of service (QoS), the different transmission capacity.

Risultati attesi

I risultati attesi riguardano le attività sperimentali che saranno eseguite sul test-bed fotonico VESPER ad alte prestazioni, con speciale enfasi sulla pila protocollare più ridondata IP-ATM-SONET/SDH-DWDM mostrata in figura, per esempio nel caso di tributari basati sulle celle. Il problema di trattare i tributari basati sui pacchetti sarà analizzato nella attività 2.2. Gli esperimenti di grid-computing su reti ottiche saranno sviluppati in parallelo con le soluzioni teoriche studiate nel WP1. Come primo obiettivo si riconvertirà il test-bed fotonico al supporto delle transazioni di grid-computing. In accordo con i risultati teorici del WP1, si otterranno e definiranno il quadro di configurazione dell'OADM PMA-32 prodotto dalla Marconi e dei dispositivi basati a cella per l'aggregazione del traffico. In particolare i risultati attesi sono:* Analisi comparativa di differenti soluzioni di veloce reinstradamento, con particolare attenzione al ritardo di ripristino e all'ottimizzazione delle risorse di rete. Poiché l'OADM PMA 32 supporta la tecnica del Digital Wrapper, una tecnica digitale di incapsulamento del payload per scopi di QoS, si prevedono di sperimentare differenti strategie per la protezione del traffico a differenti livelli di dettaglio (scheda/lunghezza d'onda/percorso).* Campagne di misure dei tempi di ripristino nel caso di condizioni di guasto a differenti bit-rate di trasmissione e di carico di traffico, che valideranno le soluzioni teoriche indicate nel WP1. Per accrescere la complessità topologica dell'architettura ad anello, si potrà fare uso di opportuni emulatori di rete e generatori di traffico, allo scopo di realizzare modelli tipici di traffico o topologie più complesse.* Supporto di reti private virtuali per il grid-computing: si intende estendere l'approccio classico delle reti private virtuali (VPN) basato su tecniche esclusivamente orientate alla connessione come Frame Relay,

161

ATM o IP Tunnelling ad architetture multi-livello del test-bed fotonico. In particolare si progetteranno e svilupperanno modelli software per l'emulazione di una VPN e saranno individuate configurazioni per un efficiente supporto al grid-computing.

The expected results regards the experimental activities that will be carried out on the high-performance photonic test-bed VESPER with special emphasis on the most complete protocol stack IP-ATM-SONET/SDH-DWDM shown in the figure, i.e. when the tributary is cell-based. The problem of handling the packet based tributaries will be dealt with in activity 2.2. The experiments of grid-computing on optical networks will be developed in parallel with the theoretical solutions studied in WP1. As a first objective we will re-orient the photonic testbed to the support of grid computing transactions. In agreement with the theretical results of WP1, we will obtain and define the configuration framework of the OADM PMA-32 manufactured by Marconi and the cell-based traffic grooming devices. The specific expected results are: * Comparative analysis of different solutions of fast rerouting with special attention to the restoration delay and to optimization of network resources. Since the OADMs PMA32 support the Digital Wrapper tecnique, a digital tecnique of payload encapsulation for QoS purposes, we expect to to experiment different strategies for traffic protection at different detail levels (card/wavelength/path).* Extensive measurements of restoration time under different failure conditions bit-rate of the transmission and traffic loads, which will validate the theoretical solutions designed in WP1. In order to enhance the topologic complexity of the ring architecture we will make use of proper network emulator and/or traffic generator, with the scope to generate traffic patterns typical of more complex topologies.* Support of virtual private networks for grid computing: we will extend the paradigm of the virtual private network (VPN) approache based on the pure connection oriented technique such as Frame Relay, ATM or IP tunnelling to the multiple layer architecture of the photonic test-bed. Specifically we will design and develop software modules for the emulation of a VPN and provider configuration solutions for the efficient support of grid computing.

162

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. PRATI GIANCARLO   35  624 

(322.27 KEuro) Attività di tipo prevalentemente sperimentale 

     35  624 (322.27 KEuro) 

  

Attività 2

Durata (mesi) 12 Durata (mesi/uomo) 56 Costo totale previsto 834 

(430.73 KEuro) 

Descrizione

Titolo dell'attività: Evoluzione del testbed fotonicoResponsabile di attività: Stefano Giordano (Lab. Naz. Reti Fotoniche)Gruppi partecipanti: Lab. Naz. Reti Fotoniche, UTDEstensione temporale dell'attività: mesi 12-24

Gli esperimenti di "destratificazione" su una rete possono essere direttamente effettuati su di un test bed metropolitano quando il traffico offerto è gestito da apparati a pacchetto che riversano il traffico aggregato su flussi IP Gigabit Ethernet, secondo la pila protocollare mostrata in figura. In questo caso si può fornire una varietà di strategie di aggreazione interfacciando il traffico proveniente dalla periferia della rete su una architettura IntServ in un flusso aggregato manipolato tramite un approccio DiffServ. Fra i servizi basati sul DiffServ si cita il Virtual Private Network (VPN) come approccio estremamente adatto per applicazioni grid-computing. Infatti queste reti, basate su una infrastruttura fisica condivisa, permette interconnessioni sicure di siti distanti e geograficamente distribuiti appartenenti allo stesso cluster computazionale. Tutte gli obiettivi di ricerca citate nella precedente attività 2.1 possono essere riconsiderate anche per questo caso.

Approcci decentralizzati e centralizzati possono essere usati per l'instradamento dei pacchetti. È risaputo che l'approccio connection-less è decentralizzato (ad esempio IP), mentre quello connection-oriented è centralizzato (ad esempio ATM). L'ingegneria del traffico è pressoché impossibile in reti connectionless, mentre è realizzabile all'interno di un paradigma orientato alla connessione. Quando è presente una stratificazione protocollare come IP su ATM su SDH/SONET su WDM, il problema dell'ingegnerizzazione del traffico può essere risolto almeno in due vie ovvie. Un overlay model sfrutta i livelli connection-oriented e la classificazione CoS per massimizzare l'utilizzazione dei collegamenti della rete. L'altro approccio si basa sull'aggiunta di qualche caratteristica orientata alla connessione al livello IP come ad esempio il GMPLS (generalizad Multiprotocol Label Switching) per la classificazione e lo smistamento dei pacchetti consentendo di effettuare il traffic engineering direttamente al livello IP.Assieme al normale servizio si dovranno fornire anche funzionalità di protezione e ripristino in caso di guasti. Verranno analizzate le tecniche di ripristino sia nel caso centralizzato che in quello decentralizzato. L'attività si concentrerà su una analisi comparativa tra differenti soluzioni circa il re-instradamento veloce con particolare attenzione al ritardo introdotto dal ripristino e all'ottimizzazione delle risorse di rete mediante una diretta applicazione di tali tecniche sul testbed fotonico.

163

Activity title: Evolution of the photonic test-bedActivity leader: Stefano Giordano (Lab. Naz. Reti Fotoniche)Partecipant groups: Lab. Naz. Reti Fotoniche, UTDTime span of the activity: months 12-24

The experiments of network delayering can be directly performed on the metropolitan test-bed when the offered traffic is handled by packet-based devices which aggregate the traffic into a single Gigabit Ethernet IP stream, according to the protocol stack shown in the figure. In this case we can provide a a variety of grooming strategies interfacing the traffic coming from the network periphery possibly handled with an IntServ architecture into aggregated flows handled with a DiffServ approach. Among services based on the DiffServ approach we mention Virtual Private Networks (VPN) that are extremely suitable for handling grid-computing applications. In fact these networks, though based on a shared physical infrastructure, allow the secure interconnection of remote and geographically distributed sites belonging to the same computing cluster. All the research investigations mentioned in the previous activity 2.1 can be carried out also for this case.

Decentralized and centralized approaches can be used for routing packets. It is well known that the connection-less approach is decentralized (e.g. IP), while the connection-oriented approach is centralized (e.g. ATM). Traffic engineering is almost impossible in a connection-less network while it is feasible with a connection-oriented routing paradigm. When there is a protocol layering like IP over ATM over SDH/SONET over WDM, the problem of traffic engineering can be solved at least in two obvious ways. An overlay model exploits the underlying connection-oriented layers (ATM) and the CoS classification to maximize network link utilization. The other approach is to add some connection-oriented features to the IP plane such as a GMPLS (Generalized Multiprotocol Label Switching) control plane for packet classification and switching allowing for traffic engineering directly at the IP level.Along with normal service we must provide for protection and restoration in case of failure. Both decentralized and centralized automatic restoration techniques will be investigated. The activity will focus on a comparative analysis of different solutions of fast rerouting with special attention to the restoration delay and to optimization of network resources with a direct applications of all the solutions to the photonic testbed.

164

Risultati attesi

* Esperimenti su una rete fotonica "destratificata"In questa attività si intende convalidare dei nuovi paradigmi di trasmissione "ritardata" e delle architetture dei livelli di controllo basati su GMPLS mediante esperimenti sul test-bed fotonico VESPER. Mediante l'impiego di sonde per reti Gigabit Ethernet saranno collezionati i dati di traffico da inviarsi al sistema di simulazione con il quale poter condurre oltre ad analisi prestazionali indagini di tipo what-if assolutamente indispensabili per giustificare quantitativamente la pianificazione dello sviluppo della rete di backbone a larga banda. L'unità operativa ha inoltre sviluppato strumenti ad hoc per la rilevazione dei ritardi end-to-end in reti a pacchetto (basati su sincronizzazione GPS). Grazie a tali strumenti sarà inoltre possibile rilevare il tempo necessario per la restoration da condizioni di guasto basato su tecniche di protection implementate sul trial reale. Sarà quindi possibile pianificare sulla base di un accurato modello di simulazione la configurazione delle numerose funzioni che concorrono ad offrire il trasporto del traffico generato da applicazioni di tipo calcolo distribuito. Grazie ad un tuning congiunto delle prestazioni di processing e di trasporto dell'informazione sarà quindi possibile realizzare una ottimizzazione delle prestazioni del macro-sistema di networked computing.* Aumento della complessità topologica della rete ottenuta mediante la sostituzione di un OADM con un OXC o un WXC.La configurazione di base del testbed VEPER include quattro nodi gestiti da OADM. La capacità di commutazione di questi apparati, sebbene significativi, è più bassa rispetto a quella offerta da un OXC o un WXC. Si intende provare sia la soluzione basata su un OXC disponibile commercialmente disponibile all'interno del Laboratorio Nazionale di Reti Fotoniche sia un emulatore di OXC o WXC ottenuto utilizzando un OADM e un apparato di commutazione aggiuntivo posizionato tra le add port e le drop port. Questa analisi fornirà anche preziose indicazioni circa la progettazione della migrazione da OADM a WXC o lambda-router. I risultati teorici del WP1 riguardanti l'architettura dei lambda-router verranno applicati e provati all'interno di questa attività.

* Experiments on a photonic delayered networkIn this activity we intend to validate novel "delayered" transmission paradigms and GMPLS-based control plane architectures by experiments on the photonic test-bed VESPER. Mediante l'impiego di sonde per reti Gigabit Ethernet saranno collezionati i dati di traffico da inviarsi al sistema di simulazione con il quale poter condurre oltre ad analisi prestazionali indagini di tipo what-if assolutamente indispensabili per giustificare quantitativamente la pianificazione dello sviluppo della rete di backbone a larga banda. L'unità operativa ha inoltre sviluppato strumenti ad hoc per la rilevazione dei ritardi end-to-end in reti a pacchetto (basati su sincronizzazione GPS). Grazie a tali strumenti sarà inoltre possibile rilevare il tempo necessario per la restoration da condizioni di guasto basato su tecniche di protection implementate sul trial reale. Sarà quindi possibile pianificare sulla base di un accurato modello di simulazione la configurazione delle numerose funzioni che concorrono ad offrire il trasporto del traffico generato da applicazioni di tipo calcolo distribuito. Grazie ad un tuning congiunto delle prestazioni di processing e di trasporto dell'informazione sarà quindi possibile realizzare una ottimizzazione delle prestazioni del macro-sistema di networked computing.

* Enhancement of the topological complexity of the network obtained by substitution of an OADM with an OXC or a WXC. The basic configuration of the VESPER testbed includes 4 nodes served by OADMs. The switching capability of these devices, though significant, is lower than that offered by an OXC or WXC. We expect to test both off-the shelf OXC available within the National Laboratory of Photonic Networks as well as emulated OXC and WXC obtained by using an OADM and an additional switching device between the add port and the drop ports. This analysis will also give useful indications for the migration design of the considered OADM towards a WXC or a lambda-router. The theoretical results of WP1 regarding the lambda-router architecture will be applied and tested within this activity

165

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. PRATI GIANCARLO   56  834 

(430.73 KEuro) Attività di tipo prevalentemente sperimentale 

     56  834 (430.73 KEuro) 

  

Attività 3

Durata (mesi) 18 Durata (mesi/uomo) 74 Costo totale previsto 1.163 

(600.64 KEuro) 

Descrizione

Titolo dell'attività: Esperimenti di grid computing basati su commutazione di pacchetto otticoResponsabile di attività: Piero Castoldi (Lab. Naz. Reti Fotoniche)Gruppi partecipanti: Lab. Naz. Reti Fotoniche, UTDEstensione temporale dell'attività: mesi 18-36

Gli aspetti sperimentali dei paradigmi di commutazione completamente ottica, cioè la commutazione di circuito ottico, la commutazione di burst ottico e la commutazione di pacchetto ottico verranno presi in considerazione in questa attività. Un testbed fotonico per questo tipo di sperimentazioni per questo scopo sarebbe troppo costoso da realizzare ma alcune funzionalità di base possono essere studiate all'interno di questa attività specialmente per simulazione.

In particolare la protezione, il ripristino e i problemi di sopravvivenza di una rete ottica e il relativo piano di controllo GMPLS sono di grande interesse e meritano di essere sperimentati. Infatti, ogni lightpath può trasportare una traffico con velocità aggregata di 10 Gb/s (velocità corrispondenti ad OC-192, OC-768 sono in corso di test), la sopravvivenza ai guasti di componenti di rete diventa un problema critico per il successo di ogni architettura di rete. Le attuali reti ottiche tipicamente offrono solamente due gradi di affidabilità del servizio: protezione piena in presenza di un singolo guasto nella rete oppure nessuna protezione. Il grado di affidabilità scelto per una data connessione è perciò determinato dai requisiti dell'applicazione, e non dalla topologia reale della rete, specifiche di progetto, robustezza dei componenti e lunghezza della connessione. Per questo è necessario un opportuno emulatore di rete per tenere conto di tutte le variabili citate.

Un testbed di rete (un emulatore di rete) sarà costruito ad UTD per validare sperimentalmente e testare la bontà delle soluzioni generate durante l'attività condotta nel WP1. Il testbed consisterà di almeno 20 nodi connessi per formare una griglia con topologia arbitraria. Ogni nodo sarà costituito da un PC con installato il sistema operativo Linux che verrà utilizzato per implementare il piano di controllo. I lightpath dello strato ottico e le topologie virtuali saranno emulate utilizzando circuiti trasparenti end-to-end che possono essere dinamicamente creati. Le funzionalità di OXC saranno emulate usando commutatori crossbar realizzati ad-hoc via software e controllati dai PC Linux. I commutatori crossbar consentono di instaurare dinamicamente circuiti trasparenti end-to-end. Grazie alle capacità di commutazione veloce fornita componenti ottici emulati, sarà possibile testare paradigmi di commutazione di pacchetto e di burst ottico in assenza di bufferizzazione sulle topologie virtuali fornite dall'emulatore. Inoltre, la scalabilità geografica del sistema verrà studiata per mezzo di elementi di ritardo programmabile costruiti ad-hoc ed inseriti sui collegamenti di rete, emulando lunghezze di collegamento fino a 500 miglia.

Per quanto riguarda le tecnologie fotoniche si testeranno direttamente nel Laboratorio Nazionale di reti fotoniche le soluzioni teoriche individuate nell'attività 1.5. La disponibilità di apparecchiature di larga complessità consente di sperimentare e testare le prestazioni di nuove architetture di switch. Emulando lo

166

strato ottico, il costo di questo esperimento sarà significativamente contenuto, pur consentendo una attività sperimentale sulle funzionalità del piano di controllo delle soluzioni proposte.

Activity title: Experiments of grid computing based on optical packet switchingActivity leader: Piero Castoldi (Lab. Naz. Reti Fotoniche)Partecipant groups: Lab. Naz. Reti Fotoniche, UTDTime span of the activity: months 18-36

The experimental aspects of all-optical switching paradigms namely the optical circuit switching, optical burst switching and optical packet switching will be considered in this activity. A photonic test bed for this purpose would be too expensive to realize but some basic functionalities can be tested within this activity especially by emulation. In particular protection, restoration, survivability of an optical network and the relevant GMPLS control plane are of great interest and deserve to be experimented. In fact, each lightpath may carry an aggregated data rate of 10Gbps (OC-192, OC-768 data rates are currently tested), survivability to network element faults becomes a critical issue for the practical success of any network architecture. Current optical networks typically offer two degrees of service reliability only: full protection in presence of a single fault in the network, and no protection at all. The reliability degree chosen for a given connection is thus determined by the application requirements, and not by the actual network topology, design constraints, robustness of the network components, and span of the connection. Because of this a network emulator could be highly useful to account for all mentioned variables.

A network test-bed (network emulator) will be built at UTD to experimentally validate and assess the performance of the solutions generated while carrying on activities of WP1. The testbed will consist of at least 20 nodes connected to form an arbitrary mesh topology. Each node will consist of a PC running Linux that will be used to implement the control plane. The optical layer lightpaths and virtual topologies will be emulated using transparent end-to-end Ethernet circuits that can be dynamically set up. OXC functionalities will be emulated using custom built crossbar switches controlled by the Linux PCs. The crossbar switches allow to dynamically establish transparent end-to-end circuits. With the fast switching capabilities provided by the emulated optical components, it will be possible to test bufferless optical burst switching and optical packet switching within the provisioned virtual topologies. Additionally, geographical scalability will be investigated by means of custom built programmable delay elements that can be inserted on network links, emulating link lengths of up to 500 miles.

As regards innovative photonic technologies we will test directly in the National Photonic Networks Lab the theoretical solutions devised in activity 1.5. The availability of large complexity equipments allows to experiment and assess the performance of novel switch architecture. By emulating the optical layer, the cost of this experiment will be significantly contained, still allowing experimental work on the control plane functionalities of the proposed solutions.

Risultati attesi

* L'emulazione dello strato ottico consentirà di applicare le funzionalità del piano di controllo ad una ampia gamma di tecnologie di OXC

Scopo dell'attività è infatti quello di proporre un modello della rete "configurabile" mediante una segnalazione GMPLS ed adattabile alle specifiche topologie logiche che dovranno essere offerte a livello superiore come mostrato in figura. In altre parole a partire dalla topologia fisica della rete impiegata (che come già detto dovrà sicuramente essere di tipo magliato) potrà essere offerta a livello logico superiore una topologie di connettività end-to-end tra super-calcolatori o cluster di calcolatori sufficientemente flessibile alle peculiari esigenze dell'applicazione di calcolo distribuito (es. ipercubo, toro, anello, dual-bus etc). Le funzioni che saranno progettate consentiranno di garantire l'effettiva disponibilità del trasporto informativo anche in condizioni di guasto per le quali verrà verificata l'efficacia di soluzioni parametriche innovative. Therefore, the main activity outcome will be the experimental performance evaluation of optical packet switching paradigms not commercially available yet, with special enphasis on operating conditions typical of grid computing.

167

* Validazione della struttura di nuovi dispositivi e valutazione di prestazione in un vero ambiente di rete per quanto possibile

Nel WP1 ci aspettiamo di ottenere architetture innovative per l'elaborazione completamente ottica del segnale. Le architetture dei dispositivi ottici sono normalmente ottenute come trade-off tra specifiche tecnologiche e accettabilità delle prestazioni in un ampia varietà di scenari di rete. All'interno della presente attività si prevede di testare le più semplici architetture di crossconnect che possono essere realizzate all'interno del Laboratorio Nazionale di reti fotoniche ed eventualmente caratterizzarli con modelli appropriati. Questi modelli saranno poi trasferiti al laboratorio di UTD per l'emulazione di rete.

* Emulation of the optical layer will enable to apply the implemented control plane functionalities to a wide range of OXC.

Scopo dell'attività è infatti quello di proporre un modello della rete "configurabile" mediante una segnalazione GMPLS ed adattabile alle specifiche topologie logiche che dovranno essere offerte a livello superiore come mostrato in figura. In altre parole a partire dalla topologia fisica della rete impiegata (che come già detto dovrà sicuramente essere di tipo magliato) potrà essere offerta a livello logico superiore una topologie di connettività end-to-end tra super-calcolatori o cluster di calcolatori sufficientemente flessibile alle peculiari esigenze dell'applicazione di calcolo distribuito (es. ipercubo, toro, anello, dual-bus etc). Le funzioni che saranno progettate consentiranno di garantire l'effettiva disponibilità del trasporto informativo anche in condizioni di guasto per le quali verrà verificata l'efficacia di soluzioni parametriche innovative. Therefore, the main activity outcome will be the experimental performance evaluation of optical packet switching paradigms not commercially available yet, with special enphasis on operating conditions typical of grid computing.

* Validation of the structure of novel devices and performance assessment in a true network environment as far as possible.

In WP1 we expect to obtain novel architectures for all-optical signal processing. The architectures of optical devices are normally obtained as trade-off between technological constraints and acceptable performance in a wide variety of network scenarios. Within the present activity we plan to test the most simple architecture that can be realized within the National Laboratory of Photonic Networks and possibly characterize them with appropriate models. These models are then transferred to the UTD lab for network emulation.

168

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. PRATI GIANCARLO   74  1.163 

(600.64 KEuro) Attività di tipo prevalentemente sperimentale 

     74  1.163 (600.64 KEuro) 

  

169

Workpackage 3

Referente del Workpackage Cognome MAZZUCATO Nome MIRCO Qualifica Dirigente di Ricerca INFN Ente di appartenenza Istituto Nazionale di Fisica Nucleare 

Descrizione delle attività

Attività 1

Durata (mesi) 6 Durata (mesi/uomo) 5 Costo totale previsto 62 

(32.02 KEuro) 

Descrizione

Definizione dei requisiti del work package (mesi 1- 6)

La raccolta completa dei requisiti verrà effettuata per valutare le caratteristiche della grid che sarà sviluppata. Verranno richiesti contributi ai work package delle applicazioni. Questa attività definirà il criterio di valutazione per il software di grid, vecchio e nuovo, con il quale quest’ultimo verrà valutato e provato durante la fase di rifinitura.

Workpackage requirements definition (month 1- 6)

A full requirement gathering will be performed to evaluate the needs of the grid to be deployed. Input from applications Work Packages will be collected. This task will define the evaluation criteria for the existing and new grid middleware that will be measured and tested during the rifinement phase.

Risultati attesi

D3.1 (Rapporto) Mese 6, Rapporto dettagliato delle richieste delle applicazioni e criteri di valutazione

D3.1 (report) Month 6, Detailed report on requirements and evaluation criteria

170

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MAZZUCATO MIRCO  

5  62 (32.02 KEuro) 

Il Workpackage 3 e' di principale responsabilita' dell'INFN. 

     5  62 (32.02 KEuro) 

  

Attività 2

Durata (mesi) 6 Durata (mesi/uomo) 17 Costo totale previsto 62 

(32.02 KEuro) 

Descrizione Definizione del progetto di Grid (mesi 6-12)

Lo scopo di questa attività è l’identificazione dei servizi del software della Grid, da adattare o realizzare, prendendo in considerazione i requisiti delle applicazioni raccolti nell’attività precedente. Questi servizi potranno essere realizzati utilizzando i toolkit di grid esistenti ma, in alcuni casi, dovranno essere adattati alle nuove esigenze o addirittura interamente sviluppati.Verra' prodotto un piano di realizzazione con le funzionalita' previste per i rilasci del software schedulati ai mesi 18, 24 e 36.

Grid project definition (month 6-12)

The goal of this task is to identify the middleware services of the Grid that has to be implemented, taking into account the applications requirements collected in the previous task. These services can be made available by adapting the existing grid toolkits or, in some cases, by a new complete developement.A deployment plan with the foreseen software functionality will be produced regarding the releases at months 18, 24, 36.

Risultati attesi

D3.2 (Documento) Mese 12, Descizione del progetto di Grid

D3.2 (document) Month 12, Grid Design Project description

Unità di ricerca impegnate e relativi compiti 171

nº Responsabile scientifico

Mesi/uomo Costo (ML) Note

1. LAFORENZA DOMENICO  

12  0 (0.00 KEuro) 

Dispiegamento GRID (Attivita' sotto la responsabilita' principale dell'INFN) 

2. MAZZUCATO MIRCO 5  62 (32.02 KEuro) 

Attivita' sotto la responsabilita' principale dell'INFN. 

     17  62 (32.02 KEuro) 

  

Attività 3

Durata (mesi) 24 Durata (mesi/uomo) 40 Costo totale previsto 495 

(255.65 KEuro) 

Descrizione

Sviluppo ed adattamento dei servizi di Grid (mesi 12-36)

I servizi di grid selezionati per questo progetto saranno resi disponibili, sviluppati e validati secondo il criterio definito nel task 3.1. Miglioramenti ai servizi esistenti saranno definiti e realizzati in accordo con i requisiti espressi dale applicazioni.

In aggiunta ai temi propri delle applicazioni della fisica delle alte energie, verranno studiati:

· Nuovi modelli di dati · Requisiti relativi a security, accounting e amministrazione delle risorse · Requisiti specifici dei job

Per quanto riguarda la biologia, come anche per la fisica delle alte energie (HEP), i dati dovranno essere resi accessibili in modo trasparente agli utenti senza che questi ultimi abbiano la necessità di conoscere la loro localizzazione nella grid. Questo requisito tuttavia ha conseguenze diverse da quelle che ha nel mondo HEP.

Contrariamente a quello che succede per HEP I database della biologia sono duplicati su siti differenti e spesso hanno rigide restrizioni di accesso (spesso sono privati) ed I dati sono immagazzinati con schemi e tecnologie differenti. Essi, inoltre, crescono in dimensione molto rapidamente (la loro dimensione raddoppia ogni 18 mesi) e necessitano di frequenti aggiornamenti.

Il ‘middleware’ del progetto DataGrid applicato alle applicazioni della scienza Biomedica dovra’ permettere aggiornamenti ai database senza interrompere I programmi in esecuzione e nello stesso tempo di mandare in esecuzione nuovi programmi. L’evoluzione e le modifiche a questi servizi verranno fatte all’interno di questo work package solo se saranno di entita’ relativamente modesta, diversamente verranno fatte in collaborazione con gli altri work package.

Grid services development and adaptation (month 12-36)

172

The existing grid services selected for the present project, using the evaluation criteria defined in the task 3.1, will be packaged, deployed and validated. Improvements to existing services, according to the applications requirements, will be defined and implemented. Further issues, with respect to the current mainly HEP based developments, will be addressed:· New data models · Security, Accounting and Administration requirements· Specific jobs requirements

For Biology, as for High Energy Physics (HEP), data should be accessible transparently from the user perspective, without knowledge of the actual location of data over the GRID. This requirement however has different consequences than for HEP.Contrary to HEP, biology databases are duplicated on different sites and have often strict access restrictions (often they are private) and data are stored with different schema and implementation technology. Biology databases are also growing in size very fastly (their size doubles every 18 months) and need frequent updates. DataGrid middleware for the Biomedical area should make possible database updates without interrupting running jobs and allow at the same time biologists to rerun their jobs. The new services enhancements or developments that will be defined, can be planned and developed within this workpackage, if they are limited in size and complexity, otherwise they will be implemented in collaboration with the other work packages.

Risultati attesi

D3.3 (Prototipo) Mese 18, Componenti e Documentazione per la prima versione del progettoD3.4 (Prototipo) Mese 24, Componenti e Documentazione per la seconda versione del progettoD3.5 (Prototipo) Mese 36, Componenti e Documentazione per la versione finale del progettoD3.6 (Rapporto) Mese 36, Rapporto di valutazione finale

D3.3 (prototype) Month 18, component and documentation for the first project releaseD3.4 (prototype) Month 24, component and documentation for the second project releaseD3.5 (prototype) Month 36, component and documentation for the final project releaseD3.6 (Report) Month 36, final evaluation report.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO 40  495 

(255.65 KEuro) Attivita' sotto la responsabilita' principale dell'INFN. 

     40  495 (255.65 KEuro) 

  

Attività 4

Durata (mesi) 24 Durata (mesi/uomo) 29 Costo totale previsto 351 

(181.28 KEuro) 

Descrizione

173

Packaging e integrazione dei servizi di Grid mesi(12-36)

I servizi di Grid verranno’ ‘confezionati’ in modo uniforme e sperimentati separatamente. Successivamente saranno integrati in diversi pacchetti di installazione e sperimentati in domini di grid dedicati. A questo punto verranno resi disponibili ai ricercatori delle diverse discipline. Archivi per il codice, assistenza e documentazione saranno messi a disposizione degli utenti. L’accesso alle risorse della grid verra’ fatto a livello globale utilizzando strumenti standard di autenticazione e autorizzazione.

Grid services packaging and integration (month 12-36)

All the grid services will be packaged in a uniform way and tested separately. Then the packages will be integrated in different installation kits and tested in a dedicated environment. They will be then made available to all the research application users. Facilities for code Repository, support and documentation will be developed. This task will provide global authentication and authorization to access grid resources.

Risultati attesi

D3.3 (Prototipo) Mese 18, Componenti e Documentazione per la prima versione del progettoD3.4 (Prototipo) Mese 24, Componenti e Documentazione per la seconda versione del progettoD3.5 (Prototipo) Mese 36, Componenti e Documentazione per la versione finale del progettoD3.6 (Rapporto) Mese 36, Rapporto di valutazione finale

D3.3 (prototype) Month 18, component and documentation for the first project releaseD3.4 (prototype) Month 24, component and documentation for the second project releaseD3.5 (prototype) Month 36, component and documentation for the final project releaseD3.6 (Report) Month 36, Final evaluation report

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO 29  351 

(181.28 KEuro) Attivita' sotto la responsabilita' principale dell'INFN. 

     29  351 (181.28 KEuro) 

  

Attività 5

Durata (mesi) 24 Durata (mesi/uomo) 27 Costo totale previsto 330 

(170.43 KEuro) 

Descrizione

174

Implementazione e certificazione della Grid (mesi 12-36)

Questa attivita’ consiste nella realizzazione di una grid verra’ certificata utilizzando le reali applicazioni degli utenti in collaborazione con I WP relativi alle applicazioni delle varie discipline scientifiche. Lo scopo principale di questo task e’ di fornire una grid di produzione per l’esecuzione di applicazioni reali che utilizzano dati reali.

Grid deployment and validation (month 12-36)

This task will deploy a grid environment to be validated using real-life applications in collaboration with applications WPs. The aim of this task is to provide a production grid facility with real data and end-to-end applications.

Risultati attesi

D3.3 (Prototipo) Mese 18, Componenti e Documentazione per la prima versione del progettoD3.4 (Prototipo) Mese 24, Componenti e Documentazione per la seconda versione del progettoD3.5 (Prototipo) Mese 36, Componenti e Documentazione per la versione finale del progettoD3.6 (Rapporto) Mese 36, Rapporto di valutazione finale

D3.3 (prototype) Month 18, component and documentation for the first project releaseD3.4 (prototype) Month 24, component and documentation for the second project releaseD3.5 (prototype) Month 36, component and documentation for the final project releaseD3.6 (Report) Month 36, Final evaluation report

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO 27  330 

(170.43 KEuro) Attivita' sotto la responsabilita' principale dell'INFN. 

     27  330 (170.43 KEuro) 

  

175

Workpackage 4

Referente del Workpackage Cognome TALAMO Nome MAURIZIO Qualifica Professore Ordinario Ente di appartenenza Universita' di Roma "Tor Vergata" 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 28 Costo totale previsto 379 

(195.74 KEuro) 

Descrizione

REQUISITI E MODELLI

L'analisi organizzativa delle nuove tipologie di servizi resi disponibili dalla pervasiva disponibilita' di Internet ha reso evidente la necessita' di definire nuovi modelli in grado di descrivere le problematiche di sicurezza e di certificazione nella cooperazione e nell'interscambio di dati tra organizzazioni. In tale ambito, infatti, da un lato differenti organizzazioni hanno enormi potenzialita' tecnologiche per erogare servizi in cooperazione, dall'altro rischiano di essere trattenute dagli ovvi problemi che soluzioni tecnologiche indipendenti dai vincoli organizzativi creano.

Tale aspetto e' reso ancora piu' critico dall'assunzione nel progetto dell'infrastruttura di griglia come l'ambiente di computazione di riferimento. Il suo obiettivo ultimo di costituire un'ambiente ubiquo in cui sia possibile operare con una modalita' "plug-and-process" rende chiaramente la definizione dei requisiti e dei modelli un passo estremamente importante. L'individuazione dei requisiti e la definizione di metodi e modelli per considerarli nella messa a punto degli strumenti software da realizzare e' un passo essenziale affinche' le soluzioni architetturali possano trovare un'efficace attuazione.

Lo scenario di riferimento da un punto di vista funzionale-rganizzativo per lo studio di tali problematiche e' il seguente:

- Ci sono molte organizzazioni di grandi dimensioni che devono cooperare per il raggiungimento di obiettivi comuni e predefiniti;- Le organizzazioni cooperano ed interagiscono utilizzando l'infrastruttura di griglia;- Ogni organizzazione ha gia' indipendentemente sviluppato le sue applicazioni informatiche ("legacy"), secondo i suoi bisogni ed in accordo con il suo modello organizzativo;- Un'organizzazione coinvolta nella cooperazione non sempre e' il gestore o il produttore dei dati che essa usa per la cooperazione;- L'accesso da parte di un'organizzazione a dati prodotti da altre organizzazioni deve essere certificato in modo indipendente dalle organizzazioni coinvolte e dai sistemi usaticertificati;- Differenti organizzazioni usano differenti PKI per la fornitura al loro interno dei servizi di sicurezza.

176

REQUIREMENTS AND MODELS

Organizational analysis of new service types made available by the pervasive availability of Internet made evident the need of defining new models capable of describing security and certification issues in cooperation and data interchange among organizations. In such context, in fact, on the one hand different organizations have enormous technological potentialities to provide services in cooperation, on the other one they incur the risk of being restrained by the obvious problems created by technological solutions implemented independently from organizational constraints.

This aspect is made even more critical by assuming in the project the GRID infrastructure as underlying computational environment. Clearly, the final objective of constructing an ubiquitous environment in which it is possible to work in a "plug-and-process" way, makes the requirements and models definition an enormously important step.

Requirement analysis and specification of methods and models for considering them during the design of software tools to be realized, is an essential step so that architectural solutions may find effective fulfilment.

The reference scenario for the study of such issues, from a functional-organizational point of view, is the following:

- There are many large organizations which have to cooperate to reach common and predefined goals;- Organizations cooperate and interact by using the GRID infrastructure;- Each organization has, since a long time, developed its own computerized information systems ("legacy") according to its needs and to its organizational model;- An organization involved in cooperation is not the source/manager of all the data it needs for cooperation; - Access on the part of an organization to data produced by other organizations must be certified independently of the organizations involved and systems used;- Different organizations use different PKIs to provide security services internally.

Risultati attesi

I risultati attesi di questa attivita' sono i seguenti:

- Individuazione dei requisiti e definizione di modelli per l'analisi delle problematiche di cooperazione sicura e certificata basata su PKI- Messa a punto di metodi per la definizione di soluzioni architetturali che tengano presenti i vincoli organizzativi necessari per attuare la cooperazione sicura e certificata nell'infrastruttura di griglia.- Definizione di meccanismi di tracciatura e sicurezza per la certificazione sicura della cooperazione inter-organizzativa basata su PKI.

The expected results of this activity are the following:

- The characterization of requirements and definition of models for the analysis of problems of secure and certified cooperation based on PKI;- Design of methods for the definition of architectural solutions which consider organizational constraints necessary to carry out secure and certified cooperation in the GRID infrastructure.- Definition of mechanisms of tracing and security for secure certification of inter-organizational cooperation based on PKIs.

177

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MURLI ALMERICO   28  379 

(195.74 KEuro) Sicurezza in ambiente GRID: requisiti 

     28  379 (195.74 KEuro) 

  

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 28 Costo totale previsto 494 

(255.13 KEuro) 

Descrizione

STRUMENTI PER LA INTERAZIONE SICURA E CERTIFICATA DI PIU' ORGANIZZAZIONI COOPERANTI SULL'INFRASTRUTTURA DI GRIGLIA

Le esigenze di riferimento in questo ambito sono: la presentazione unificata dei servizi e l'accesso unificato ai servizi, indipendentemente dallo specifico punto di accesso/fruizione. L'obiettivo e' quindi definire e valutare, sia da un punto di vista teorico che sperimentale, protocolli ed algoritmi per il mantenimento efficiente in un contesto distribuito della coerenza fra dati condivisi da piu' applicazioni indipendenti, gestite dalle varie organizzazioni coinvolte nella cooperazione, in modo da assicurare un interscambio affidabile, sicuro e certificato dei dati.

L'obiettivo ultimo e' quello della realizzazione di un "gestore delle transazioni" per applicazioni distribuite. Attualmente, infatti, il controllo dei flussi di dati scambiati da tali applicazioni e' effettuato in locale, su ognuno dei nodi della rete coinvolti nella cooperazione. Ma in una situazione di cooperazione tra enti indipendenti, tale scelta tecnologica tende a subordinare le applicazioni locali ai processi di monitoraggio e controllo. Questo e' inaccettabile, perche' da un punto di vista organizzativo implica la subordinazione degli enti coinvolti nella cooperazione.

Pertanto, l'unica scelta tecnologica che rispetti i requisiti organizzativi della cooperazione e' di effettuare un continuo "checkpointing" dei vari processi distribuiti su ognuno dei nodi coinvolti. In questo modo, pero', la fase di analisi e controllo della correttezza temporale e causale del sistema distribuito diventa enormemente complessa.

In questa fase vengono quindi messi a punto meccanismi ed implementati strumenti software con un modello "open source", basati sia su tecniche efficienti di rappresentazione e manipolazione di dati multidimensionali che su tecniche per la prova della correttezza di sistemi distribuiti, che rendano possibile controllare e tracciare con elevata efficienza le "trame applicative" delle applicazioni cooperative.

TOOLS FOR SECURE AND CERTIFIED INTERACTION OF ORGANIZATIONS COOPERATING IN THE GRID INFRASTRUCTURE

Reference requirements in this context are: unified presentation of services and unified access to services, independently of the specific point of access/delivery. The objective, thus, is to define and evaluate, both from a theoretical and experimental point of view, protocols and algorithms for efficient maintenance, in a

178

distributed context, of the coherence among data shared by several independent applications, managed by various organizations involved in the cooperation, so as to ensure a reliable, secure and certified interchange of data.

The final objectives is the realization of a "transaction manager" for distributed applications. At present, in fact, the control of the flow of data exchanged by such applications is carried out on site, at each node of the network involved in cooperation. But in a situation of cooperation among independent agencies, such technological choice tends to subordinate local applications to processes of monitoring and checking. This is inacceptable, because from an organizational point of view it implies the subordination of agencies engaged in the cooperation.

Therefore, the only technological choice which respects the organizational requirements of the cooperation is to execute continuous "checkpointing" of the various processes distributed over each of the nodes involved. In this way, however, the phase of analysis and checking of temporal and causal correctness of the distributed system becomes enormously complex.

In this phase mechanisms are set-up and software tools are implemented according to an "open source" model, based on both efficient techniques of representation and manipulation of multi-dimensional data and on techniques for the testing of correctness of distributed systems, which makes it possible to check and trace highly efficiently the "application tracks" of cooperative applications.

Risultati attesi

I risultati attesi di questa attivita' sono i seguenti:

- Definizione di meccanismi per il controllo dei flussi di dati scambiati da applicazioni cooperanti sull'infrastruttura di griglia, in grado di garantire elevata efficienza della loro gestione ed elaborazione in contesti altamente dinamici e di offrire supporto ai requisiti di certificazione e di sicurezza dell'interazione- Implementazione dei meccanismi mediante lo sviluppo di strumenti con un modello "open source software" e loro raffinamento sulla base delle valutazioni effettuate e delle reazioni dell'utenza.

The expected results of this activity are the following:

- Definition and design of mechanisms for the control of flow of data exchanged on the GRID infrastructure by cooperating applications, capable of ensuring high efficiency of their management and elaboration in highly dynamics contexts, and of supporting certification and security requirements of the interaction;- Implementation of mechanisms through the development of tools according to an "open source software" model and refinement of them on the basis of accomplished evaluations and users' reactions.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MURLI ALMERICO  

28  494 (255.13 KEuro) 

STRUMENTI PER LA INTERAZIONE SICURA E CERTIFICATA DI PIU' ORGANIZZAZIONI COOPERANTI SULL'INFRASTRUTTURA DI GRIGLIA 

     28  494 (255.13 KEuro) 

  

179

Attività 3

Durata (mesi) 36 Durata (mesi/uomo) 29 Costo totale previsto 264 

(136.34 KEuro) 

Descrizione

STRUMENTI PER LA DIFESA ATTIVA DALLE INTRUSIONI NELL'INFRASTRUTTURA DI GRIGLIA

L'obiettivo di questa attivita' e' aumentare la robustezza complessiva del sistema e, quindi delle applicazioni da esso supportate, di fronte non solo a guasti e/o errori dei componenti utilizzati ma anche ad attacchi esterni o interni. Come ormai universalmente accettato, una tale robustezza non puo' essere ottenuta intervenendo solamente al livello applicativo mediante controlli basati su meccanismi di crittografia simmetrica o asimmetrica, ma richiede opportuni meccanismi e politiche a livello del sistema operativo per garantire non solo la confidenzialita' dei dati ma anche la disponibilita' dei dati e dei sistemi.

In particolare, in questa attivita' si esplora la possibilita' di integrare meccanismi per la rilevazione di tentativi di intrusione nei sistemi e meccanismi per la riconfigurazione del sistema di fronte ad attacchi esterni. I meccanismi per la rilevazione delle intrusioni che vengono considerati comprendono:

- strumenti per il controllo della integrita' dei dati e dei programmi;- host intrusion detection systems, HIDS, che interagiscano con il sistema operativo per verificare le richieste di operazioni ricevute dal singolo utente e rilevare tentativi di violare le politiche di sicurezza e di protezione stabilite per il sistema;- network intrusion detection systems, NIDS, che analizzino in maniera trasparente il traffico di rete per rilevare tentativi di attacco al sistema;- strumenti per coordinare gli strumenti precedenti ed integrare le informazioni da essi ricevute per fornire ai gestori del sistema una visione coerente dello stato del sistema stesso.

Poiche i sistemi NIDS, a differenza dei HIDS, operano senza limitare in alcun modo le prestazioni della sottorete da essi controllata, l'integrazione di HIDS e NIDS puo permettere di ottimizzare il rapporto costo/prestazioni complessivo senza sacrificare la qualita dell'analisi realizzata.

Per ottenere le prestazioni necessarie al monitoraggio di un sistema complesso e con banda di comunicazione estremamente elevata che caratterizzano la classe di sistemi di interesse per il progetto, si prevede di utilizzare implementazioni multi-thread dei singoli strumenti n modo da garantire:- che non vengano perse informazioni del traffico di rete- di non limitare significativamente le prestazioni dei sistemi protetti.

TOOLS FOR THE SURVIVABILITY OF THE GRID INFRASTRUCTURE

The goal of this task is to achieve the survivability of the overall system, and in particular of the supported applications, in the presence of both faults and attacks. Both insider and external attacks will be considered. It is widely accepted that survivability cannot be achieved only by adopting encryption and authentication mechanisms, based either on the symmetric approach or on the asymmetric one, at the application layer. Instead, survivability is a property that involves all the system layers, starting from the operating system one, to guarantee not only data confidentiality but also the availability of both the data and the components that define the hardware and software infrastructure of the grid. In particular, this task is going to investigate the integration of tools and mechanisms to detect attacks and intrusions together with those to reconfigure the system so that it can survive the attacks. The tools and mechanism that we are going to consider include:

180

- program and data integrity checkers- host intrusion detection systems, HIDS, that filter the requests issued to the operating system to detect attempts to violate the system security policy;- network intrusion detection systems, NIDS, that detect intrusions by transparently analyzing the network traffic;- coordination tools that cooperate with all the other tools and with the security officer to deduce the overall security state of the system.

While a HIDS has an impact on the performance of the considered host, a NIDS does not reduce the performance of the network it is protecting. Hence, by integrating both classes of tools, an high quality analysis can be defined without reducing in a sensibleway the overall system performance. To be able to analyse the information flowing in an high speed network, we are going to develop a multi-threaded implementation of the tools of interestso that they can analyse any information flowing in the system without impacting too much on the supplied performance.

Risultati attesi

I risultati attesi di questa attivita' sono i seguenti:

- sviluppo di strumenti per la rilevazione delle intrusioni sull'infrastruttura di griglia integranti sia strategie basate sulla ricerca di pattern noti di attacco sia strategie basate sulla descrizione della politica di sicurezza. - sviluppo di strumenti per la difesa attiva sull'infrastruttura di griglia a seguito della rilevazione di intrusioni in grado di attivare azioni quali: terminazione forzata di una connessione, terminazione forzata di una applicazione, riconfigurazione della struttura di interconnessione tra i nodi allocati ad un'applicazione, riconfigurazione del sottoinsieme dei nodi allocati ad un'applicazione con riallocazione dinamica del carico.- integrazione degli strumenti sviluppati con i sistemi operativi utilizzati dal progetto nell'ambito dell'infrastruttura di griglia.

The expected results are

- the development of intrusion detection tools based both on attack signature detection and on events violating the system security policy;- proactive tool that, upon an attack detection, can force the closure of a connection, the abort of an application, the reconfiguration of the interconnection structure among the grid nodes assigned to an application and the dynamic reallocation of the application onto the grid nodes;- integration of the previous tools with the operating systems adopted by the project.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. LAFORENZA DOMENICO  

29  264 (136.34 KEuro) 

STRUMENTI PER LA DIFESA ATTIVA DALLE INTRUSIONI NELL'INFRASTRUTTURA DI GRIGLIA 

     29  264 (136.34 KEuro) 

  

181

Attività 4

Durata (mesi) 36 Durata (mesi/uomo) 29 Costo totale previsto 391 

(201.93 KEuro) 

Descrizione

VALIDAZIONE UTENTI E FORNITORI

L'obiettivo di questa fase e' quello di costituire un gruppo di eccellenza di utenti e fornitori, individuati come particolarmente significativi per le tematiche affrontate, che parteciperanno attivamente alla fase di sperimentazione degli strumenti software realizzati e contribuiranno quindi, attraverso l'esame di casi applicativi reali alla validazione dei risultati.

Particolare attenzione verra' dedicata agli utenti del settore dei servizi e, piu' in generale, all'utenza non di tipo strettamente scientifico, dal momento che per essa e' maggiore l'esigenza da un lato di cooperare a livello applicativo e dall'altro di ottenere sicurezza e certificazione nella cooperazione - ma senza vincoli di subordinazione.

In generale, comunque, l'attivita' di sperimentazione e validazione sara' aperta all'intera comunita' scientifica e tecnologica nazionale coinvolta nel progetto, nel senso che verra' incoraggiato (anche offrendo un minimo di supporto tecnico) l'analisi e l'utilizzo degli strumenti software "open source" realizzati.

Una possibile evoluzione a lungo termine di questa attivita', infatti, e' sicuramente quella della costituzione di un'infrastruttura di riferimento per le problematiche della certificazione di sicurezza dei sistemi informatici di supporto alla cooperazione inter-ogranizzativa.

USERS AND SUPPLIERS VALIDATION

The objective of this WP is to set-up an excellence group of users and suppliers, selected as being particularly significant for the thematics faced, that will participate actively in the testing phase of software tools realized and will contribute, hence, through the study of real-life application cases, to the validation of the results.

Particular attention will be devoted to users in the services sector and, more in general, to users which are not strictly scientific user, since for them, on the one hand, the need of cooperating at the application level is greater, and, on the other one, of obtaining security and certification in the cooperation framework (but without constraints of subordination).

In general, however, testing and validation activities will be open to the whole scientific and technological community engaged in the project, by encouraging (also through the offer of technical support)the analysis and the use of the "open source" software tools developed.

In fact, a possible long term development of this activity is the institution of a reference infrastructure for certification issues regarding security of inter-organizational cooperative information systems.

182

Risultati attesi

I risultati attesi di questa attivita' sono i seguenti:

- certificazione ai fini della sicurezza e nel rispetto dei requisiti e dei modelli organizzativi definiti dell'attivita' 1 degli strumenti software, sviluppati nell'attivita' 2, che implementano i meccanismi per il controllo dei flussi dei dati scambiati da applicazioni cooperanti sull'infrastruttura di griglia- certificazione ai fini della sicurezza e nel rispetto dei requisiti e dei modelli organizzativi definiti dell'attivita' 1 degli strumenti software, sviluppati nell'attivita' 3, che implementano i meccanismi per la rilevazione delle intrusioni e per la difesa attiva da esse sull'infrastruttura di griglia

The expected results of this activity are:

- certification, with respect to requirements and models defined in activity 1, of the security of software tools developed in activity 2 implementing mechanisms for monitoring flow exchanged by inter-organizational computer-based information systems cooperating on the GRID infrastructure- certification, with respect to requirements and models defined in activity 1, of the security of software tools developed in activity 3 implementing mechanisms for detecting intrusions and for actively defending against them the inter-organizational cooperation of computer-based information systems on the GRID infrastructure

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MURLI ALMERICO   29  391 

(201.93 KEuro) VALIDAZIONE UTENTI E FORNITORI 

     29  391 (201.93 KEuro) 

  

183

Workpackage 5

Referente del Workpackage Cognome MAZZUCATO Nome MIRCO Qualifica Dirigente di Ricerca INFN Ente di appartenenza Istituto Nazionale di Fisica Nucleare 

Descrizione delle attività

Attività 1

Durata (mesi) 6 Durata (mesi/uomo) 6 Costo totale previsto 75 

(38.73 KEuro) 

Descrizione

definizione dei requisiti (mese 1-6)

Come prima fase verra’ fatta un’analisi approfondita delle esigenze di accesso ai dati delle applicazioni riguardanti principalmente l’astrofisica, la geofisica, la scienza dell’osservazione della terra e la biologia.Benche’ questa attivita’ sia concentrata principalmente nei primi sei mesi, essa continuera’ durante l’evoluzione del progetto come una continua revisione dei requisiti sulla base dei risultati ottenuti. Questa continua revisione potrebbe eventualmente portare a nuovi requisiti che a loro volta potrebbero richiedere nuovi sviluppi di servizi.

requirements definition (month 1-6)

Requirements gathering from the applications, namely Astrophysics, Geophysics, Earth Observation and Biology. Although this task will be concentrated mainly in the first 6 months of the project, the real activity will continue during the whole duration of the project as a continuous review the original requirements respect to the obtained results. This review will eventually lead to a new set of requirements which will trigger a new development cycle.

184

Risultati attesi

D5.1 (Rapporto) mese 3: Rapporto sulla tecnologia esistenteD5.2 (Documento) mese 6: Rapporto sul progetto di architettura

D5.1 (report) month 3: report of current technologyD5.2 (report) month 6: architectural design report.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO 6  75 

(38.73 KEuro) Attivita' sotto la principale responsabilita' dell'INFN. 

     6  75 (38.73 KEuro) 

  

Attività 2

Durata (mesi) 30 Durata (mesi/uomo) 26 Costo totale previsto 320 

(165.27 KEuro) 

Descrizione

Accesso ai dati e sicurezza (mesi 6-36)

Questa fase iniziera’ con la valutazione dei servizi software esistenti per il trasferimento di file ad alta velocita’ e accessi frequenti a database eterogenei.

Saranno studiati aspetti relativi alla sicurezza e all’accounting, richiesti in modo specifico dalle discipline scientifiche coinvolte. In particolare saranno approfonditi argomenti quali la sicurezza di database privati (crittazioni) che richiedono accessi fortemente controllati. Verra’ inoltre studiata una interfaccia uniforme per database che hanno formati e tempi di risposta differenti.

L’obiettivo di trovare la migliore soluzione per soddisfare i requisiti delle applicazioni, potrebbe portare alla definizione e sviluppo di una nuova architettura per il ‘data management’. Questa nuova architettura dovra’ ovviamente tener conto della infrastruttura di grid definite nel work package 3 e della sua possible estensione

data access and security (6-36)

This task will start with the evaluation of the existing services for fast file transfer and heterogeneous and frequent database access. Security and accounting issues, which are specifically requested by the involved scientific fields, will be addressed. Particular attention will be put on arguments such as private databases

185

security (encryption), strictly controlled access, uniform interface to different databases formats, response times.A new data management architecture will eventually be defined to better match the specified requirements. This work will obviously take into account the grid infrastructure defined in WP 3 and its possible extension

Risultati attesi

D5.3 (Prototipo) mese 12: Componenti e Documentazione per la prima versione del progettoD5.4 (Prototipo) mese 21: Componenti e Documentazione per la seconda versione del progetto D5.5 (Prototipo) mese 33: Componenti e Documentazione per la versione finale del progettoD5.6 (Rapporto) mese 36: Rapporto di valutazione finale

D5.3 (prototype) month 12: Components and documentation for the first project release D5.4 (prototype) month 21: Components and documentation for the first project release D5.5 (prototype) month 33: Components and documentation for the first project release D5.6 (report) month 36: Final evaluation

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO 26  320 

(165.27 KEuro) Attivita' sotto la responsabilita' principale dell'INFN. 

     26  320 (165.27 KEuro) 

  

Attività 3

Durata (mesi) 18 Durata (mesi/uomo) 21 Costo totale previsto 255 

(131.70 KEuro) 

Descrizione

Gestione dei Meta-Dati (mese 6-24)

L’obiettivo strategico del servizio dati e’ quello di integrare le diversita’, le decentralizzazioni e le disomogeneita’. L’accesso attraverso l’uso di meta-dati a database distribuiti in siti diversi ed autonomi puo’ funzionare in modo trasparente solo se si costruisce un sistema informativo adatto a questo scopo.

Meta data management (month 6-24)

186

The key challenge of data service is to integrate diversity, decentralisation and heterogeneity. Meta data from distributed autonomous sites can turn into information only if straightforward mechanisms for using it are in place. Thus, the service defines and builds upon a versatile and uniform protocol, such as LDAP. Multiple implementations of the protocol will be used as required, each focussing on different trade-offs in the space spanned by write/read/update/search-performance and consistency.

Risultati attesi

D5.3 (Prototipo) mese 12: Componenti e Documentazione per la prima versione del progettoD5.4 (Prototipo) mese 21: Componenti e Documentazione per la seconda versione del progetto D5.5 (Prototipo) mese 33: Componenti e Documentazione per la versione finale del progettoD5.6 (Rapporto) mese 36: Rapporto di valutazione finale

D5.3 (prototype) month 12: Components and documentation for the first project release D5.4 (prototype) month 21: Components and documentation for the first project release D5.5 (prototype) month 33: Components and documentation for the first project release D5.6 (report) month 36: Final evaluation

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO 21  255 

(131.70 KEuro) Attivita' sotto la responsabilita' principale dell'INFN. 

     21  255 (131.70 KEuro) 

  

187

Workpackage 6

Referente del Workpackage Cognome TURINI Nome FRANCO Qualifica Professore Ordinario Ente di appartenenza Universita' di Pisa 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 44 Costo totale previsto 515 

(265.98 KEuro) 

Descrizione

CORE SERVICES FOR KNOWLEDGE DISCOVERY ON GRIDS

A questa attivita` partecipano i gruppi: ISI-CNR(Sacca`), UniCal(Talia), UniVe (Orlando), ISTI-CNR (Perego).Gli strumenti e le tecniche di Knowledge discovery sono usati in un numero sempre maggiore di applicazioni scientifiche e commerciali per l'analisi di grandi data set. Quando le grandi basi di dati sono accoppiate con la distribuzione geografica dei dati stessi, degli utenti e dei sistemi, è necessario combinare diverse tecnologie per l'implementazione di di sistemi di scoperta della conoscenza distribuiti ad alte prestazioni.Accanto a questo scenario, occorre rilevare che le griglie computazionali oggi sono delle infrastrutture molto promettenti per supportare questa classe di applicazioni.Secondo questo approccio, si vuole sviluppare una architettura software che consenta la realizzazione di sistemi paralleli e distribuiti di knowledge discovery (PDKD). Questa architettura si poggerà su una serie di servizi grid che forniscono un accesso consistente, pervasivo e efficace a risorse computazionali high-end. Il livello di knowledge discovery è costruito sui livelli di base della griglia come una collezione di servizi che supportano l'utente nella definizione e nell'esecuzione del processo di scoperta della conoscenza.

CORE SERVICES FOR KNOWLEDGE DISCOVERY ON GRIDS

Partecipants to this activity: ISI-CNR(Sacca`), UniCal(Talia), UniVe (Orlando), ISTI-CNR (Perego).Knowledge discovery tools and techniques are used in an increasing number of scientific and commercial areas for the analysis of large data sets. When large data repositories are coupled with geographic distribution of data, users and systems, it is necessary to combine different technologies for implementing high-performance distributed knowledge discovery systems. On the other hand, the computational grid is emerging as a very promising infrastructure for high performance distributed computing. We intend to develop a software architecture that allows the construction of a parallel and distributed system for knowledge discovery. The architecture will be based on a suite of grid services providing a consistent, pervasive and effective access to high-end computational resources. The knowledge discovery layer is built

188

on top of the grid basic layer as a bag of services that support the user in the definition and execution of a knowledge discovery process.

Risultati attesi

L'obiettivo primario è la realizzazione di una architettura software PDKD che integra tecniche di data mining con le risorse computazionali offerte da una griglia per gestire collezioni di dati nell'ordine dei petabyte, ottenendo sia elevate prestazioni che la apacità di operare su dati distribuiti.I servizi dell'architettura software PDKD saranno organizzati a due livelli: core Knowledge-grid layer e high level Knowledge-grid layer. Il primo realizza i servizi di data management direttamente implementati sui servizi di base offerti dai toolkit della griglia, il secondo implementa servizi per descrivere, sviluppare ed eseguire computazioni di PDKD.

The construction PDKD software architecture that integrates data-mining techniques with computational resources provided by GRID, in order to manage data collections in the order of petabytes, obtaining both high performance and the ability of working on distributed data.

We attempt to overcome the difficulties of wide area, multi-site operation by exploiting the underlying grid infrastructure that provides basic services such as communication, authentication, resource management, and information.

The services of the PDKD software architecture will be organized in two hierarchic levels: core Knowledge-grid layer and high level Knowledge-grid layer.

The former refers to services directly implemented on the top of generic grid services, the latter are used to describe, develop and execute PDKD computations over the Knowledge Grid.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MURLI ALMERICO 44  515 (265.98 KEuro) 

Strumenti e tecniche di Knowledge discovery s in ambiente GRID 

     44  515 (265.98 KEuro) 

  

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 89 Costo totale previsto 746 

(385.28 KEuro) 

Descrizione PARALLELIZATION AND DISTRIBUTION OF DATA MINING ALGORITHMS

A questa attivita` partecipano i gruppi: ISTI-CNR(Perego), UniVe (Orlando), UniPI (Coppola), ISI-CNR (Sacca`), UniCAL (Talia).

189

Le esigenze di progettare algoritmi paralleli e distribuiti di Data Mining per ottenere soluzioni scalabili e diminuire i tempi di risposta sono ben noti. Rispetto a ciò, possiamo considerare i campi di ricerca noti come Parallel DM (PDM) e Distributed DM (DDM), e in particolare Grid-aware DDM, come risultati della naturale evoluzione delle tecnologie per il DM.La maggior parte degli algoritmi di DM esistenti sono stati originariamente sviluppati per dati mantenuti centralizzati. Come conseguenza, gli algoritmi paralleli (PDM) sono stati progettati presupponendo che tutti i dati di input siano disponibili sul file system della macchina parallela prima dell’inizio del processo di mining. Una volta che i dataset sono stati spostati sulla macchina, gli algoritmi paralleli possono quindi scegliere liberamente e valutare diverse politiche per la distribuzione e la replicazione dei dati. Infine, le piattaforme parallele usate per PDM sono ad accoppiamento relativamente stretto rispetto a piattaforme distribuite, e sono solitamente omogenee.Al contrario, gli algoritmi di DDM devono fare i conti con le politiche di accesso ai dati, che possono porre limiti rispetto ai movimenti dei dati e quindi alla loro distribuzione/replicazione, e con le alte latenze conseguenti allo spostamento dei dati stessi. DDM accetta quindi il fatto che i dati siano inerentemente distribuiti tra siti ad accoppiamento lasco, e che i sistemi possano anche avere caratteristiche di eterogeneità. In alcuni casi, a causa delle specifiche politiche di privatezza e sicurezza di ciascun sito distribuito, è permesso solo spostare i risultati delle analisi di DM, i quali devono poi essere opportunamente combinati con risultati provenienti da altri siti. Inoltre, anche i formati dei dati distribuiti nei vari siti possono essere non uniformi. Comunque bisogna considerare che esistono approcci per il PDM sia a grana fine e sia a grana grossa, e che il secondo approccio può utilizzare algoritmi ad accoppiamento lasco per estrarre conoscenza da dati distribuiti. E’ quindi probabile che in alcuni casi ci siano sovrapposizioni significative tra PDM ed il campo degli algoritmi di DDM.

In questo scenario, lo sfruttamento di una piattaforma distribuita di tipo Grid introduce ulteriore complessità nella fase di progettazione di algoritmi di DM che deve tenere conto in misura ancora maggiore delle problematiche di accesso a dati remoti, dello stato della piattaforma distribuita ed eterogenea che varia dinamicamente, delle elevate latenze che caratterizzano i meccanismi di comunicazione, dei problemi complessi dello scheduling delle risorse e del bilanciamento del carico.Infine, poiché gli algoritmi paralleli e distribuiti per DM devono poi essere combinati con altri componenti software al fine di implementare il processo di KDD nella sua interezza, questi algoritmi dovranno essere forniti come eseguibili o librerie con interfacce ben definite, in modo da poter essere inclusi in un ambiente di sviluppo a componenti o in un problem solving environment (PSE) per DM.

PARALLELIZATION AND DISTRIBUTION OF DATA MINING ALGORITHMS

Partecipants to this activity: ISTI-CNR(Perego), UniVe (Orlando), UniPI (Coppola), ISI-CNR (Sacca`), UniCAL (Talia).The need of exploiting parallel and distributed Data Mining (DM)applications in order to obtain scalable and high performance knowledge discovery solutions are well known. In this regard, we can consider Parallel DM (PDM) and Distributed DM (DDM), and in particular GRID-aware DDM, as results of the natural evolution of DM technologies.Note that most of the existing DM algorithms were originally developed for centralized data. As a consequence, parallel algorithms (PDM) were developed by considering that all data are preventively moved (centralized) to the specific parallel machine before starting the mining process. Once these datasets are moved, parallel algorithms can thus choose and evaluate various distributions and replication policies for the data. Moreover, parallel architectures considered in PDM are usually tightly coupled and homogeneous.Conversely, DDM algorithms must deal with the limited possibilities for data movements and data distribution/replication, and with the large latencies paied to move data. Hence DDM accepts the fact that data may be inherently distributed among loosely coupled sites, with heterogeneous features of systems involved. In some cases, due to specific policies of privacy and security of each site, only the results of a mining analysis can be moved in order to combined them with other results coming from other sites. Moreover, data stored in distributed sites may also be heterogeneous. However, since PDM can be approached using either a coarse-grain or a fine-grain parallel techniques, and the former approach discovers knowledge from distributed data using a collection of loosely coupled algorithms, we can find significant overlaps between these algorithm for PDM and the field of DDM.

The exploitation of the Grid for DDM platforms introduces further complexity in the design of such solutions. Grid-aware implementations have in fact to deal with several complex problems such as: resource

190

scheduling, remote data access, dynamic and unpredictable variations in the availability and capacity of resources used, hetereogeneity, high communication latencies, load balancing issues. Finally, since parallel and distributed DM algorithms need to be combined with other software components to build a complete KDD process, they should be provided as executables or libraries with well defined interfaces, in order to include them into either a component-based development environment or a DM problem solving environment (PSE).

Risultati attesi

In questa attività verranno investigati algoritmi di PDM e DDM che si adattano alle caratteristiche di piattaforme in principio molto diverse: verranno infatti considerate architetture che vanno dai cluster omogenei o eterogenei di multiprocessori simmetrici (SMP), fino a piattaforme altamente distribuite di tipo Grid.L'obiettivo più importante di questa attività di ricerca è la progettazione, l'implementazione e la valutazione delle prestazioni di applicazioni di DM parallele e distribuite, che dinamicamente siano in grado di adattare il proprio funzionamento rispetto alle caratteristiche statiche e dinamiche della specifica architettura. Grazie al loro elevato grado di configurabilità e dinamicità, queste applicazioni dovranno essere in grado di ridurre l'impatto dei costi di I/O e di modificare la propria configurazione in maniera automatica o semi-automatica rispetto ai diversi ambienti computazionali, anche altamente distribuiti e Grid-oriented, per garantire affidabilità e buone prestazioni. Quest'ultima proprietà richiede che il software progettato mascheri le elevate latenze di comunicazione mediante la sovrapposizione di calcolo e comunicazione, e, soprattutto, raccolga e usi a run-time informazioni di monitoring per modificare la propria configurazione in funzione dello stato della piattaforma.Se necessario, in questa attività verranno anche proposti algoritmi innovativi di DDM per risolvere i problemi derivanti dal fatto che i dati non possono essere spostati dai rispettivi siti di appartenenza, ed anche per fornire soluzioni scalabili per piattaforme con latenze di comunicazione molto elevate come le Grid. Inoltre, poiché per sua natura il processo di knowledge discovery richiede che gli utenti esperti del dominio applicativo specifico siano strettamente integrati al suo interno, le componenti software sviluppate per PDM e DDM avranno caratteristiche di interattività attraverso la fornitura di meccanismi di monitoring e streering della computazione.

Un obiettivo intermedio di questa attività riguarda lo sviluppo di un sistema run-time parallelo e distribuito che possa essere messo a comune per lo sviluppo di algoritmi di PDM e DDM differenti. Questo sistema di run-time implementerà pattern di progetto ricorrenti in diversi algoritmi di DM. Alcuni di questi pattern ricorrenti riguarderanno l'accesso tramite I/O ai dati, strutture dati e relativi metodi di gestione, distribuzioni dei dati e relative problematiche di scheduling dei task. Verranno valutati implementazioni differenti di tali pattern rispetto alle diverse piattaforme considerate. Infine, gli algoritmi paralleli e distribuiti di DM verranno forniti come librerie o componenti software, da combinare per poter costruire applicazioni di KDD più complesse, attraverso l'uso dell'ambiente di sviluppo sviluppato nel progetto, o un problem solving environment (PSE) per KDD la cui infrastruttura è sviluppata in questo WP.

In this activity we will investigate PDM and DDM algorithms specifically designed for a continuum of architectures, ranging from homogeneous/heterogeneous clusters of symmetric multiprocessors (SMP) to Grid platforms. The main goal of the activity is to design, implement and evaluate parallel and distributed DM applications that adapt their behaviors to the static and dynamic features of the specific platform. Due to a high degree of configurability and dinamicity, these applications will have to be capable of minimizing/optimizing I/O costs and modifying their configuration in a automatic or semi-automatic way to the different computational environments, even highly distributed and Grid-oriented ones, in order to provide reliability and good performances. The last property in particular requires the implementation to mask the high communication latencies by overlapping communication with computations, and collect and use run-time monitoring information to adapt its own configuration with respect to the current status of the specific platform. If necessary, in this activity of research innovative DDM algorithms will be devised, to solve the issues deriving from distributed data that can not be moved from their own sites, and to furnish scalable solutions also when platforms like computational Grids with very high communication latencies are employed.

191

Moreover, since the nature of knowledge discovery process requires expert in the particular application domain to be tightly integrated into it, we will provide in our software components interactivity in the form of monitoring and computational steering mechanisms.

An intermediate objective of this activity regards the design of a common parallel and distributed run-time system for developing distinct PDM and DDM algorithms. This run-time system will implement recurrent design patterns currently found in several DM algorithms. Some of the frequently encountered patters are concerned with I/O data access, data structures and associated management methods, data distributions and relative scheduling of associated tasks. Different implementation of these patterns will be evaluated for distinct platforms.Finally, these algorithms will be furnished as libraries or software components, to be combined in order to construct more complex KDD applications, through the adoption of either the component-based programming environment developed in the project, or a KDD problem solving environment (PSE) whose infrastructure is developed in this WP.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO   26  306 

(158.04 KEuro) Progettazione di algoritmi di DM per GRID 

2. MURLI ALMERICO   63  440 (227.24 KEuro) 

Progettazione di algoritmi di DM per GRID 

     89  746 (385.28 KEuro) 

  

Attività 3

Durata (mesi) 36 Durata (mesi/uomo) 30 Costo totale previsto 358 

(184.89 KEuro) 

Descrizione

LOAD BALANCING TECHNIQUES FOR WEB SEARCH

Partecipano a questa attivita`: IRITI-CNR (DeMartin), PoliTO (Meo).L'attività intende indagare, nel contesto di una infrastruttura GRID, quali tecniche e' necessario adottare per permettere ai server Web di soddisfare una richiesta di servizi in fortissima crescita, sia come tipologia, sia in termini di volumi complessivi.

Alcune delle questioni che si intendono analizzare sono:

a) In che modo impostare il load balancing in un contesto grid?b) Quale impatto ha il paradigma grid sul modo in cui si intende il problema della Qualita' di Servizio (QoS)?c) Come cambiano le tecniche di caching e di proxy placement se valutate in un contesto grid?d) Come cambiano le relazioni tra i livelli inferiori (fisico, trasporto) ed i superiori (applicativo)?

Per misurare l'efficienza, verranno prese in considerazione diverse metriche. Una prima metrica e' il numero, medio e di picco, di richieste HTTP soddisfacibili nell'unita' di tempo. Tale indicazione permette di stimare, dato un profilo di traffico tipo, il numero di utenti simultanei che il server e' un grado di servire.

192

Una seconda metrica, di grande importanza per la possibilita' di trasferimento tecnologico dei risultati della ricerca, e' quella della stima dei costi, sia hardware sia software necessari per l'implementazione delle tecniche proposte.L'abbattimento dei costi, al momento molto elevati, dei server Web ad alte prestazioni e' un passaggio obbligato per il dispiegamento di un'infrastruttura in grado di garantire i servizi Internet del futuro.Infine, una terza metrica e' quella della fault-tolerance delle tecniche proposte.Con il crescere del ruolo e del peso dei servizi Web a tutti i livelli della societa' e dell'economia, c'e' l'esigenza crescente di poter far affidamento su tali servizi 24/24-7/7, sul modello della rete PSTN tradizionale.

Nel caso di servizi in tempo reale ( o quasi-tempo-reale), invece, per prestazioni si intende soprattutto Qualita' di Servizio (QoS). La QoS di servizi in tempo reale, come la telefonia su IP, la videoconferenza o lo streaming audio-video (su richiesta o live), si misura principalmente con metriche legate ai ritardi medi di consegna dei pacchetti, alla variabilita' (o jitter) del ritardo e alle statistiche dei pacchetti persi.I valori relativi a tali metriche vengono normalmente mappati su livelli di qualita' di servizio percettuale, sulla base di numerosi fattori, in primis la tecnica di codifica (compressione) usata per i dati multimediali e dati sperimentali noti sulle prestazioni in diversi scenari di trasmissione rumorosa. Lo sviluppo di tecniche per server Web ad alte prestazioni in grado di soddisfare richieste di contenuti multimediali e' cruciale per l'affermarsi su larga scala di servizi come Internet TV, Internet Radio, Video-on-Demand.

LOAD BALANCING TECHNIQUES FOR WEB SEARCH

Partecipants: IRITI-CNR (DeMartin), PoliTO (Meo).The activity aims at finding which techniques have to be used in a GRID infrastructure in order to satisfy high-load requests for Web services.

The issues to be investigated include:

(a) how to manage load-balancing in a GRID environment;(b) which is the impact of the GRID paradigm on quality of service,(c) how caching and proxy placement techniques change in a GRID context,(d) which are the changes between the low levels (physical and transport)and the high levels (applications).

To measure performance, several metrics will be employed.The first metric is the number, average and peak, of HTTP requests that can be satisfied per time unit. That number makes possible to estimate, for a given traffic profile, the number of simultaneous users that the Web server is capable of serving.A second metric, of great relevance for the process of technology transfer of the results of the research, is the estimated cost, both hardware and software, of the proposed techniques. To reduce the cost, now very significant, of high-performance Web servers is a crucial requirement to ensure the deployment of a infrastructure capable of supporting the next generation of Internet services.Finally, a third metric will be linked to the fault-tolerance of the proposed system. As the role and weight of Web-based services becomes larger and larger at all levels of society and economy, the need for 24/24-7/7 reliability, along the lines of PSTN networks, becomes acute.

In the case of real-time (or near-real-time) Web services, performance is often measured in terms of Quality of Service (Qos). The QoS of real-time services, like Voice over IP, videoconferencing or audio-visual streaming (live or on-demand), is measured predominantly in terms of average delay, delay jitter and packet losses. Those metrics are usually mapped to various perceptual QoS levels, depending on several factors, above all the data coding algorithm employed and well-known experimental data about performance in noisy condition.The development of techniques for high-performance Web servers capable of satisfiying multimedia requests is crucial to the process of large scale deployment of services like Internet TV, internet radio, video-on-demand.

193

Risultati attesi

Progettazione e sviluppo di architetture e tecniche per la fornitura di servizi Web ad alte prestazioni sia in termini di efficienza sia in termini di qualita' di servizio, in particolare per servizi in real-time/quasi-real-time. Le applicazioni possibili coprono lo spettro dei servizi Web in senso lato, dal Web browsing testuale alla distribuzione di contenuti audio-visivi.

La proposta in esame si propone i seguenti obiettivi:· Produzione di una architettura low cost, di tipo sostanzialmente free nel caso in cui si adotti l’approccio puramente software, e con costo ridotto nel momento in cui si adottino schede accelerate in hardware· Generazione di componenti software innovativi in modalità Open Source· Supporto di un generico campo applicativo (web servers piuttosto che multimedia server), non legato ad una specifica applicazione e configurabile a run-time.

Design and development of architectures and techniques to provide services with high-performance both with respect to efficiency and with respect to quality of service, in particular for (quasi) real-time services. Possible applications are in the field of web services, from textual web browsing to distribution of audio-visual contents.

The proposed research aims at reaching the following objectives:- Design and development of a low cost architecture for high-performance web serving: completely free in case of a purely software approach, low cost in case of solutions based on hardware accelerator boards.-Design and development of innovative open-source software;-Support for different kinds of application, from multimedia to standard Web services, with run-time configurability.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO   30  358 

(184.89 KEuro) Servizi Web ad elevate prestazioni 

     30  358 (184.89 KEuro) 

  

Attività 4

Durata (mesi) 36 Durata (mesi/uomo) 45 Costo totale previsto 488 

(252.03 KEuro) 

Descrizione

WEB SWITCHING TECHNIQUES

Partecipano: UniPI (Attardi), SERRA (Pierazzini)MPLS-based Web-switching

194

MPLS (Multi Protocol Label Switching) è una tecnica usata sia per accelerare il trattamento dei pacchetti che per stabilire percorsi all'interno di una rete.Si intende inoltre svolgere una sperimentazione innovativa sull'utilizzo del MPLS, allo scopo di realizzare Web-Switch di elevate prestazioni.

Uno Web-switch svolge le seguenti funzioni:

1. load balancing tra i server di un cluster2. routing di contenuti: il contenuto è partizionato tra più server e lo switch si incarica di avviare la richiesta al server più specifico3. mantenimento delle sessioni, inviandole ad uno stesso server4. avviamento delle richieste a server diversi a seconda dellarichiesta.

Attualmente, per costruire server Web di alte prestazioni si utilizzano forme di replicazione e un misto di tecniche (DNS round robin) che non sono né adeguate né scalabili.Gli switch di livello-4 utilizzano header TCP/IP o del livello applicazione per distribuire le richieste: essi sono in grado di distribuire il carico e di fornire buone prestazioni, ma non forniscono lo smistamento in base ai contenuti (ad uno specifico server che contenga il contenuto richiesto). Per fare ciò è necessario terminare la connessione TCP/IP ed esaminare gli header dei livelli superiori. Per tale ragione i router di livello-7 soffrono di limiti di scalabilità e di prestazioni.Il progetto propone di sfruttare hardware di switching MPLS standard per sviluppare uno Web-switch sensibile ai contenuti, scalabile e di alte prestazioni.

LOAD BALANCING TECHNIQUES FOR WEB SEARCH

Partecipants: UniPI(Attardi), SERRA(Pierazzini).

MPLS (Multi Protocol Label Switching) is a technique used both to speed up handling of packets and to establish routing paths within a network.We plan to experiment an innovative usage of MPLS, in order to implement a high performance Web-switch.

A Web-switch performs the following tasks:

1. load balancing between the servers in a cluster2. content routing: contents is partitiones among several servers and the switch determines thee most suitable server to which to route the request3. session management, by routing requests in the same session to the same server4. request routing: routing requests to different servers according to the originating request.

Currently, building high performance Web servers involves some form of replication and a mixture of techniques for performing load balancing (DNS round-robin, etc.) which are neither adequate nor scalable.Layer4 switches using TCP/IP headers or application layer header for dispatching user requests are suitable for load-balancing and high performance but are unable to support content routing. Content routing requires terminating incoming TCP connections and examining higher-layer headers. For this reason layer7 dispatchers suffer from scalability and performance limitations.In the proposed approach we will exploit standard MPLS switching hardware for developing a scalable, high performance content-aware Web switch.

Risultati attesi

Il gruppo SerRA propone di predisporre una infrastruttura di MPLS nell'ambito della propria rete in fibra ottica metropolitana, integrandola nella dorsale di rete nazionale della ricerca a Gigabit GARR-G.

195

L'infrastruttura renderà possibile la costituzione di reti private virtuali (VPN) e di amministrare in maniera ottimale il traffico secondo le esigenze dei progetti e delle attività degli altri task del progetto, in particolare delle griglie computazionali ad alte prestazioni.Tali strutture di instradamento potranno estendersi a livello nazionale ed internazionale, collegandosi alla rete europea GÉANT, fornendo le prestazioni necessarie per realizzare servizi innovativi.In particolare, si sfrutterà MPLS per realizzare uno Web-Switch di alteprestazioni con le seguenti funzionalità: smistamento del carico su server farm; smistamento basato sui contenuti al server più opportuno; mantenimento di sessioni; smistamento basato sull'origine della richiesta.L'innovazione tecnica consiste nello sfruttare il fatto che gli apparati di switching sono agnostici rispetto alla semantica delle label e nell'utilizzare label aggiuntive, sottostanti a quelle usate per il routing del traffico, fornendo funzialità che attualmente richiedono hardware dedicato di switching a livello-7.

The SerRA team will deploy an experimental MPLS infrastructure within its own private metropolitan fiber optic network, integrating it within the national research Gigabit backbone GARR-G.The infrastructure will enable providing services like private virtual networks (VPN) and to perform traffic shaping according to the specific requirements of activities in other tasks of the proejct, in particular supporting high performance computational grids.The newtork and routing infrastructure will be connected and reach out to the international infrastructure provided by the European project GÉANT, providing the performance needed for enabling innovative services.In particular, we will design and develop a MPLS-based high performance Web-Switch providing the following functions: load balancing on a server farm; content-based routing to most suitable server; preservation of sessions across requests; routing requests differently based on the origin of the request.The approach exploits the fact that switching hardware is agnostic of label semantics and the capability of stacking MPLS labels used for web-switching below the routing labels. This will lead to a switch design based on standard off-the-shelf routers instead of dedicated layer-7 hardware.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA

DOMENICO  45  488 

(252.03 KEuro) MPLS: Realizzare di un Web-Switch di elevate prestazioni 

     45  488 (252.03 KEuro) 

  

Attività 5

Durata (mesi) 36 Durata (mesi/uomo) 45 Costo totale previsto 532 

(274.76 KEuro) 

Descrizione

ENVIRONMENTS FOR KNOWLEDGE DISCOVERY PROCESS

Partecipano: UniPI (Pedreschi), ISTI-CNR (Giannotti).

196

Il processo di estrazione della conoscenza (KDD process) è costituito da una serie di fasi che precedono e seguono il vero e proporio data mining. Lo sviluppo di applicazioni complesse, dal market basket analysis alla fraud detection fino al Web mining, richiede la possibilità di verticalizzare tutte tali fasi adattandole ed integrandole dentro un decision support system, piuttosto che un sistema di Web caching, un motore di ricerca o un portale per commercio elettronico.L'attività di ricerca mira a realizzare l'idea che il processo di knowledge discovery può essere visto come un processo di query ad alto livello, in cui sono trattabili in modo uniforme i dati oggetto di analisi, i pattern e la conoscenza estratta, i metadati. In questa ottica è necessario creare un ambiente di supporto al linguaggio di query. La realizzazione di questi ambienti di knowledge discovery possono avvalersi con profitto di una sottostante architettura grid per la distribuzione sia dei dati che dei processi di data mining.

ENVIRONMENTS FOR KNOWLEDGE DISCOVERY PROCESS

Partecipants: UniPI (Pedreschi), ISTI-CNR (Giannotti).

The process of Knowledge Discovery in Databases (KDD) is formed by a series of different phases, which precede and follow the actual data mining phase. The development of complex data analysis applications, such as market basket analysis, fraud detection and web mining, requires the possibility of verticalizing the whole KDD process and its finalization into some specific decision support system, or web caching system, or web search engine, or e-business vortal. This activity aims at implementing the idea that the process of knowledge discovery can be realized as a high-level query process, where a uniform treatment of data, patterns and metadata is made possible. In this light it is necessary to develop a support environment to this query language. The implementation of such knowledge discovery environments can profit of an underlying GRID architecture both for data distribution and to obtain the computing power needed to execute data-mining algorithms.

Risultati attesi

Questa attività si propone di perseguire due strade alla realizzazione dell'ambiente di data mining, che potranno essere integrate in un servizio complessivo.

(a) L'unità di ricerca coinvolta ha sviluppato un propotitpo di ambiente a supporto del processo di data mining in cui i risultati intermedi, gli input e gli output agli algoritmi di data mining, le azioni di manipolazione dei dati e lo stesso query language sono rappresentati in notazione XML. Il sistema così concepito presenta da un lato l’interoperabilità tra vari tool di data mining, nonché la possibilità di esprimere la loro composizione e dall'altro è predisposto all'applicazione degli stessi strumenti su dati codificati in XML. Nel progetto si intende consolidare il prototipo, estendendolo con un più completo repertorio di strumenti ed adattandolo nel contesto dei servizi dell'infrastruttura grid.

(b) L'unità di ricerca coinvolta ha sviluppato un propotitpo di DMQL (data mining query language) che estende un query language SQL-like con primitive di mining. L'integrazione avviene mediante il meccanismo degli aggregati, che consentono una visione uniforme dei vari task di mining finalizzata da un lato all'integrazione della conoscenza di dominio negli algoritmi di mining, e dall'altro all'ottimizzazione delle data mining queries.

This activity will pursue two ways of realizing a data mining environment, which can be in principle integrated into an overall service.

197

(a) We developed a prototype environment to support the knowledge discovery process, in which intermediate results, input and output of data mining algorithms, manipulation of data, and the query language itself are represented in XML notation. The proposed system supports from one side the interoperability between data mining tools, and from the other side the possibility of applying the same methods to XML data. We intend to consolidate the prototype by extending it with a broader repertoire of data mining tools, and by adapting it into the services of the grid infrastructure.

(b) We developed a prototype of a a data-mining query language extending an SQL-like query language with the notion of user defined aggregate. This is finalized to integrate the main knowledge into mining algorithms and to the optimization of data mining queries. We intend to consolidate the prototype by extending it with a broader repertoire of data mining tools, and by adapting it into the services of the grid infrastructure.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO 45  532 

(274.76 KEuro) Web caching e motori di ricerca in ambito GRID 

     45  532 (274.76 KEuro) 

  

Attività 6

Durata (mesi) 36 Durata (mesi/uomo) 13 Costo totale previsto 149 

(76.95 KEuro) 

Descrizione

QUESTION ANSWERING SERVICES

Partecipano: UniPI (Simi).

Gli attuali prototipi di sistemi di Question Answering richiedono un'analisi computazionalmente molto onerosa di grosse quantità di testi, facendo ricorso a grossi corpora di conoscenze linguistiche.

Per realizzare un sistema di QA efficace e veloce e` necessario sfruttare una struttura di elaborazione massiccia in cui i dati e i processori siano distribuiti e interlacciati.

Il calcolo necessario per questa applicazione, sia in fase di indicizzazione della collezione di documenti sia in fase di elaborazione della domanda, si presta bene ad essere parallelizzato.

In primo luogo la collezione di documenti puo` essere partizionata su piu` macchine e porzioni della collezione indicizzati in parallelo, ottenendo una serie di indici che possono essere fusi all'occorrenza in un momento successivo. Il motore di indicizzazione IXE, che il Dipartimento di Informatica ha sviluppato in collaborazione con Ideare, prevede gia` questa possibilita` di integrazione di indici, oltre a caratteristiche che lo rendono adatto all'indicizzazione finalizzata al QA, ad esempio l'indicizzazione di paragrafi e la possibilita` di recupero per prossimita`.

Ma e` nella fase di elaborazione della domanda che le prestazioni sono particolarmente critiche. Anche qui si potrebbero abbassare in maniera significativa i tempi di risposta facendo leva su due fattori:

198

- interrogando in parallelo gli indici di porzioni diverse della collezione;

- mettendo in pipeline le diverse fasi del processo di selezione della risposta, che sono tipicamente previste nei sistemi di QA, incluso il sistema PIQASSO, sviluppato dal nostro gruppo.

PIQASSO e` un sistema completo per il QA con cui il Dipartimento di Informatica ha partecipato alla confernza TREC 10 (2001). In PIQASSO, il processo di generazione della risposta prevede una prima fase in cui si recuperano dalla collezione una serie di paragrafi di testo secondo tecniche di ricerca basata su parole chiave, proprie dell'IR; successivamente alle risposte candidate cosi` individuate vengono applicati una serie di filtri che hanno lo scopo di eliminare quei paragrafi che, in base a un'analisi sintattica e semantica piu' accurata, non contengono la risposta cercata.

Tra questi filtri possiamo citare:- un filtro sul tipo della risposta attesa, in base ad una classificazione della domande (locazione, persona, organizzazione, misura, data ... );- un filtro di analisi della struttura della frase, che cerca di determinare se le relazioni tra le parole contenute nella risposta sono compatibili con quelle postulate nella domanda (questa analisi utilizza un parser a dipendenze).

Per rendere l'analisi meno sintattica inoltre c'e` la necessita` di fare ricorso a corpora lessicali e linguistici. Per esempio:- a gazzettini che elencano ad esempio nomi di presone, di luoghi geografici ecc.- a WordNet, un grosso thesaurus della lingua inglese che viene utilizzato per ottenere sinomini, ipernomini e iponomini e per risolvere ambiguita` lessicali nelle domande;- a collezioni di frasi idiomatiche

Le fasi del processo di QA possono essere svolte in pipeline e all'interno di ogni fase vari task possono essere eseguiti in parallelo o parallelizzati.

QUESTION ANSWERING SERVICES

Partecipants: UniPI(Simi)

Current prototypes for QA-systems require a computationally expensive analysis of large amounts of texts by referring to large corpora of linguistic knowledge.

In order to construct a QA-service that is effective and efficient it is necessary to exploit a massive processing structure in which data and processors are distributed and interleaved.

Computation which is necessary for this application is suitable to be performed in parallel, both in the collection indexing phase and the question processing phase.

First of all the document collection can be partitioned on several machines and fragments of the collection indexed in parallel, thus obtaining a set of indexes, eventually to be merged at a later time. The indexing service of IXE, a search engine that the Department of Computer Science has developed in collaboration with Ideare, already offers an index fusion functionality, in addition to features that make it suitable for question answering such as paragraph indexing and proximity search.

It is however in the phase of on-line question processing that performance is especially needed and critical. Here, answer times could be significantly reduced by exploiting two factors:

- by querying in parallel the indexes corresponding to different fragments of the document collection;- by executing in pipeline the different phases of the question answering process, which are typical of QA systems, including the system PIQASSO, developed by our group.

PIQASSO is a complete question answering system, by which the Department of Computer Science could partecipate in the TREC 10 conference (2001).In PIQASSO the process of answer generation includes a first phase, where a number of text paragraphs are retrieved from the document collection with IR style keyword search; next, a series of successive filters are

199

applied to the candidate answers, thus retrieved, in order to rule out those text paragraph that, according to a more accurate syntactic and semantic analysis do not contain the proper answer.

Among these filters we can mention:

- a filter on the expected answer type, based on a classification of question types (location, person, organization, measure, date ...);- a filter based on a structural analysis of the sentence, which tries to determine whether the relations among words in the answer are compatible with those in the question (a dependency parser is used here).

Moreover, in order to make the analysis less syntactic, it is necessary to resort to a number of lexical and linguistic corpora. For example:- gazeteers, which list for example person names, geographic locations etc.- WordNet, a hudge thesaurus of the English language which is used to obtain synonims, hypernims ans hyponims and for resolving lexical ambiguities;- collection of hydiomatic sentences.

The different phases of the question answering process can be performed in pipeline and within each phase the different tasks can be performed in parallel or parallelized.

Risultati attesi

Si propone di definire e sperimentare un'architettura per il sistema di QA PIQASSO, con cui il Dipartimento di Informatica ha partecipato alla TREC 10. Si propone di sfruttare la struttura a pipeline delle varie fasi del processo:

- recupero di paragrafi;- analisi basata su corpora di conoscenza lessicali; - filtri di congruenza tra le risposte candidate e la domanda.

Ogni fase dovrà essere a sua volta partizionata su una server farm. L'obiettivo è essere in grado di trattare collezioni di almeno 100 milioni di documenti con tempi di risposta inferiori al second (contro i 4-5 minuti con le tecnologie attuali).

We propose to define and experiment and architecture for the QA system PIQASSO, that has been used by the Dipartimento di Informatica in the TREC 10 competition. A pipeline structure for the phases of the process is proposed:

- retrieval of paragraphs; - analysis based on corpora of lexical knowledge; - congruence filters between candidate answers and the query.

Every phase will be partitioned on a server farm. The objective is to be able to handle collections of at least a hundred million documents with response time below 1 second (compare to 4/5mins of current technology).

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO 13  149 

(76.95 KEuro) Sistemi di Question Answering in ambient GRID 

     13  149 (76.95 KEuro) 

  

200

Attività 7

Durata (mesi) 36 Durata (mesi/uomo) 23 Costo totale previsto 273 

(140.99 KEuro) 

Descrizione

WEB MINING SERVICES FOR EFFICIENT SEARCH

Partecipano: UniPI(Ruggieri), ISTI-CNR(Giannotti).

Il Web mining studia l'uso delle tecniche di data mining per l'estrazione di informazione dai documenti e servizi Web. La conoscenza estratta può essere impiegata per rispondere ai problemi di accesso ed indicizzazione del Web.Il Web mining può essere suddiviso in tre principali categorie:

1.Structure mining: è mirato ad estrarre informazioni dalla topologia di interconnessione fra le pagine Web, al fine soprattutto di valutare la rilevanza delle pagine.2.Content mining: mira ad estrarre informazione dal contenuto delle risorse Web al fine di classificare o categorizzare: le interazioni con le tecniche di Information Retrieval sono strette.3.Usage mining: mira ad estrarre informazioni relative all'uso delle risorse Web, a partire dai dati di log generati dalle interazioni degli utenti con il Web. L'analisi dell'uso del Web può essere applicata alla definizione di strategie intelligenti di caching e prefetching di risorse Web presso proxy o web servers, all'identificazione di utenti e sessioni utente, alla ristrutturazione automatica di siti Web (adaptive web sites), ai sistemi di raccomandazione e di gestione della clientela nell'e business.

WEB MINING SERVICES FOR EFFICIENT SEARCH

Partecipants: UniPI(Ruggieri), ISTI-CNR(Giannotti).

Web mining is aimed at studying data mining techniques for knowledge extraction from web documents and resources. The mined knowledge can be used to tackle Web access and indexing problems.

Web mining comes in three flavors:

1.Structure mining, which extracts information from the linked structure of Web documents, especially in order to assess relavance of Web pages.2.Content mining, which extracts information from the page contents, to the purpose of their categorization and classification.3.Usage mining, which extracts information from the history of access to Web pages, recorded in various forms of log-files. The analysis of Web usage can be deployed through intelligent strategies for caching and prefecthing at Web servers and proxies, as well as applied to build adaptive web sites and recommendation systems and other CRM models for e-business.

201

Risultati attesi

Si intendono raffinare o sviluppare ex-novo tecniche di web mining finalizzate al potenziamento del web search sia dal punto di vista dell' efficienza della ricerca (in particolare mediante caching adattivo delle richieste frequenti desunto dall'analisi dei dati di log) che dal punto di vista della qualità delle risposte (in particolare mediante page ranking ed altre forme di web content mining). Si perseguiranno pertanto i seguentiobiettivi: (1) definizione di algoritmi di ranking sensibili al risultato di mining sul contenuto e sulla struttura dei documenti raccolti nella fase di spidering, mirati al riconoscimento di siti autorevoli; (2) analisi dei log dei search engine per il caching intelligente dei risultati di query frequenti.

We intend to refine existing techniques or develop new techniques for Web mining, finalized to improve Web search services, both from the viewpoint of efficiency of the search process, and from that of the quality of the obtained answers. In particular, we shall pursue the fiollwing two objectives:

(1) definition of page ranking algorithms made sensible to the result of Web mining on the documents gathered during the spidering phase; the page ranking wil be used in the assessment of relevance of web pages;(2) data mining analysis of log-files of web search engines, to the purpose of intelligent caching of most frequent answers to queries.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO   23  273 

(140.99 KEuro) Servizi di Web Mining in ambienti GRID 

     23  273 (140.99 KEuro) 

  

Attività 8

Durata (mesi) 36 Durata (mesi/uomo) 74 Costo totale previsto 809 

(417.81 KEuro) 

Descrizione FOCUSED WEB SEARCH

Partecipano: UniPI(Sperduti), UniFI (Frasconi), UniSI(Gori), UniMI(Archetti)

202

Con l'aumento della popolarità del Web, la quantita' di dati disponibile in linea e' cresciuta esponenzialmente. Gli attuali motori di ricerca indicizzano (una buona parte) di tale informazione in modo non focalizzato, cioe' adottando una strategia di ricerca della informazione sul Web a ventaglio, cercando di massimizzare, per quanto reso possibile dalle risorse a disposizione, il grado di soddisfacimento a query generiche.

Una limitazione tipica di questo approccio consiste nel fatto che, essendo le risorse temporali e di calcolo limitate, per garantire una buona copertura a query generiche, bisogna rinunciare alla specificita' e "freschezza" delle risposte alle query.

Lo scopo di questa attivita' e' quello di studiare e sviluppare una piattaforma di ricerca su Web che utilizzi in modo efficace le risorse disponibili per cercare solo informazione focalizzata, cioe' che massimizzi il soddisfacimento di query ristrette a domini di interesse per l'utente, garantendo cosi'maggiore specificita' e "freschezza" nelle risposte. Per raggiungere tale scopo e' preferibile adottare una ricerca a scandaglio del Web, dove le direzioni di ricerca sono decise autonomamente da agenti che hanno appreso gli interessi dell' utente attraverso tecniche di apprendimento automatico e che inoltre sfruttino la conoscenza del Web acquisita durante la navigazione focalizzata dello stesso.

FOCUSED WEB SEARCH

Partecipants: UniPI(Sperduti), UniFI (Frasconi), UniSI(Gori), UniMI(Archetti).

The increase in popularity of the Web has lead to an exponential grow of the amount of information available on-line. The search for and management of this information by current search engines is not focused, i.e. they typically adopt a breadth first search strategy to explore the Web, attempting to maximize, as much as possible given the available resources, the expected degree of satisfaction to generic queries. A typical drawback of this approach is that, due to the limited amount of available time and computational resources, in order to guarantee the largest coverage of generic queries, specificity and freshness of answers cannot be guaranteed as well.

The aim of this activity is to study and develop search services on the Web able to exploit the available resources in a proficient way just to search for focused information, i.e. information which maximizes the expected degree of satisfaction to queries concerning topics of interest for the user. In this way, it is possible to guarantee an improved performance on specificity and freshness of answers. To reach this goal, it is better to explore the Web using a depth first search strategy where the search directions are decided by autonomous agents trained by machine learning techniques to recognize information which is of interest for the user, and that are able to exploit the knowledge about the Web that they acquire during this focused search.

Risultati attesi

Si intendono progettare strumenti che non ipotizzino nessuna conoscenza sulla tipologia di informazioni da ricercare ma che apprendano in modo dinamico ed incrementale specializzandosi sulla base delle specifiche esigenze dell'utente. Tale specializzazione deve avvenire in modo indolore da parte dell'utente ovvero senza richiedere troppe informazioni o specificazioni dei propri interessi. In particolare, si intendono esplorare le seguenti possibilita':

1) sviluppare tecniche di apprendimento automatico correlate con l'information retrieval e l'elaborazione del linguaggio naturale, con finalita' applicative nell'ambito della categorizzazione di documenti e della ricerca di informazioni su Web;

203

2) studiare le architetture e le politiche piu' idonee per il crawling focalizzato e lo scoring delle pagine Web basati su tecniche che utilizzano sia il contenuto informativo della singola pagina sia la connettivita' dell'ipertesto in cui la pagina e' inserita, allo scopo di ottimizzare il grado di soddiisfacimento delle query;

3) sviluppare tecniche di apprendimento automatico per l'organizzazione strutturata delle informazioni recuperate dal Web attraverso una ricerca focalizzata, e per l'interazione personalizzata con i motori di ricerca.

We intend to design and implement tools that, without assuming any knowledge about the type of information to search for, learn in an incremental and dynamic way by focusing on the basis of specific requests from the users. Such a specialization has to occur without involving the user, that is, without asking too much information or specification on its interest. Specifically, we intend to explore the following issues:

1) development of machine learning techniques exploiting the information retrieval framework and natural language processing abilities, with application to document categorization and search of information on the Web;

2) study of the best architectures and policies for focused crawling and Web pages scoring which are based on the exploitation of both the content of the single Web page and the hyper-textual connectivity in which the Web page occurs, with the aim to optimize the degree of satisfaction to the queries;

3) development of machine learning techniques for the automatic organization in a structured fashion of the information retrieved from the Web by a focused search, and for a user customized interaction with search engines.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO   74  809 

(417.81 KEuro) High Performance Web Searching 

     74  809 (417.81 KEuro) 

  

Attività 9

Durata (mesi) 36 Durata (mesi/uomo) 45 Costo totale previsto 500 

(258.23 KEuro) 

Descrizione

XML QUERY LANGUAGE AND SEARCH ENGINES

Partecipano: UniPI(Ferragina,Ghelli).Lo sviluppo di strutture dati e algoritmi efficienti per problemi di ricerca su grandi collezioni testuali è reso oggi ancora più interessante dall'affermarsi di linguaggi di marcatura, quali SGML e XML, che permettono di arricchire i documenti con informazioni strutturali aggiuntive le quali offrono all'utente la possibilità di effettuare ricerche "complesse" e analisi sofisticate.

204

Va da sé che i sistemi di Information Retrieval classici per quanto sofisticati ed efficienti, presentano delle apparenti limitazioni se utilizzati su documenti (semi)strutturati in quanto questi non possono essere semplicemente visti come sequenze "piatte" di parole (word-based index). Per ovviare a questo inconveniente alcune grandi case produttrici di software si sono indirizzate verso la definizione di strumenti di ricerca per documenti XML basati su DBMS, ma queste soluzioni hanno immediatamente manifestato delle profonde limitazioni sia dal punto di vista delle prestazioni in tempo che in spazio. La nostra indagine sarà rivolta verso il progetto di strutture dati per l'indicizzazione che incapsulano al loro interno le peculiarità strutturali dei documenti XML, e non sfruttano queste a posteriori nel processo di interrogazione (come avviene peraltro oggi in gran parte dei motori di ricerca per XML/SGML). A tale scopo cercheremo di adattare ai documenti (semi)strutturati un innovativo indice compresso, proposto recentemente da questa unità di ricerca alla conferenza IEEE FOCS 2000. Lo spazio ridotto occupato da tale indice consentirà di tenere direttamente nell'indice quanta più informazione possibile sulla struttura del testo, e di supportare ricerche "semantiche" efficienti sui documenti XML guidate dalla loro struttura.

La definizione di linguaggi per l'interrogazione delle collezioni di documenti (semi)strutturati diventa a fortiori uno strumento imprescindibile per la formalizzazione di ricerche su di essi. In questa attività ci concentreremo su un insieme di problemi correlati con la definizione e l'implementazione di linguaggi per l'interrogazione sia di dati (semi)strutturati che di web site. Lavoreremo su un query language basato su una tree logic, che offre la possibilità di esprimere interrogazioni, tipi e vincoli, in modo unificato. Questa proprietà sarà sfruttata per studiare una nozione di coerenza fra la struttura delle interrogazioni e la struttura dei dati interrogati. Linguaggi basati su alberi non sono sufficientemente espressivi, comunque, per catturare la struttura dei dati presenti sul web.Per questo motivo, noi studieremo anche un approccio più potente basato su una logica che consente l'interrogazione di grafi e la descrizione delle loro proprietà.

XML QUERY LANGUAGE AND SEARCH ENGINES

Partecipants: UniPI(Ferragina,Ghelli).The design and development of efficient algorithms and data structures for searching on large textual collections is nowadays more appealing due to the advent of markup languages, such as SGML e XML, that allow to enrich the documents with structural information which offer to the user the possibility to perform "complex" searches and sophisticated analysis. It goes without saying that IR-systems, although powerful and efficient, present some apparent limitations if they are used on (semi)structured documents, because they look at these documents as "flat" sequences of words (word-based indices). To circumvent this problem, some software companies tried to address the design of XML-search engines by exploiting the current DMBS technology, thus ending up in solutions which achieve limited performances both in time and space. Our research will be devoted to the design of indexing tools which deploy the inherent peculiarities of the XML documents directly in the indexing data structure, not a posteriori in the search process (as it usually occurs in current XML-search engines). To this aim we will try to adapt to (semi)structured documents a novel compressed index for plain texts devised recently by this unit and published on the proceedings of IEEE FOCS 2000. The reduced space occupancy will allow to keep as much information as possible about the text structure directly in the index and yet support effective "semantic" searches on the XML documents driven by their structure.

The definition of query languages for such (semi)structured data collections becomes a fortiori a crucial tool to formalize queries on XML documents. We will focus on a set of problems related to the definition and implementation of query languages for semistructured data and web sites. We will work on a query language based on a tree logic. This logic has the ability to express queries, types, and constraints, in a unified setting. This ability will be exploited to study a notion of coherence between the structure of the queried data and the structure implied by a query.Languages based on trees are not expressive enough, though, to capture the structure of web data. For this reason, we will also study a richer approach, based on a logic to query graphs and to describe their properties.

205

Risultati attesi

La ricerca sarà rivolta ai due ambiti su descritti, e procederà in maniera strettamente correlata sia nello studio che nello sviluppo dei prototipi software che ne scaturiranno.

L'unità ha già sviluppato un prototipo di motore di ricerca per documenti puramente testuali che racchiude in sé una caratteristica innovativa: è un indice compresso che non richiede la decompressione completa dell'archivio all'atto della ricerca (IEEE Focs 2000). In questo progetto ci proponiamo di investigare l'applicabilità del nostro indice compresso al progetto di sofisticati motori di ricerca per documenti (semi)strutturati. L'idea è quella di sfruttare la compattezza ed efficienza dell'indice per arricchire la struttura di indicizzazione di ulteriori informazioni le quali consentano di supportare ricerche efficienti e complesse sui documenti XML pur mantenendo comunque contenuto lo spazio totale occupato. Il progetto di questo motore di ricerca e il suo sviluppo saranno concepiti in modo tale da rendere il sistema inseribile in un ambiente parallelo e/o distribuito, e l'uso del motore verrà analizzato in collezioni di documenti XML contenenti sequenze genomiche e testi letterari.

Nell'ambito dei linguaggi per l'interrogazione, la ricerca sarà indirizzata verso alcuni problemi correlati con la loro definizione e implementazione.Studieremo un linguaggio per l'interrogazione di dati XML basato su una tree-logic e investigheremo una logica per l'interrogazione di grafi e per la descrizione delle loro proprietà, utile nell'ambito web. Inoltre proporremo una efficiente implementazione dei nostri query-language. Questa implementazione si baserà su un meccanismo di ottimizzazione che necessiteràdella definizione di un modello per la memorizzazione dei dati XML, di un'algebra "fisica" per l'interrogazione di questi dati, di un'algebra "logica" e di un modello dei costi. L'algebra dovrà offrire una certa ridondanza tra gli operatori così che un ottimizzatore possa ricercare il plan più economico tra quelli che realizzano la stessa query. Infine studieremo l'applicabilità dei nostri risultati al linguaggio Xquery proposto dal W3C.

Our activity will be devoted to the two distinct, but strictly correlated, research contexts depicted in the "description" section. It will lead us to the development of some prototypal software systems.

As far as the XML-search-engine context is concerned, we point out that this research unit has already developed a compressed search engine for plain textual documents (see procs IEEE FOCS 2000). The peculiarity of this index is that it allows to support searches directly on the compressed files without requiring their whole uncompression at search time. The overall query time is comparable to the one of the best known indexing data structures, and the space occupancy is proportional to the one required by the best known compressors. In this project we aim at studying the applicability of this compressed index to XML-documents. Our idea is to exploit the succinct space occupancy and efficiency of our index to plug the structural information present in the XML-documents directly into the indexing data structure without occupying large space and still supporting effective searches. We will pose particular attention to make this index suitable to work in a parallel as well distributed environment. We will also investigate its applicability to collections containing genomic sequences and Italian literature documents.

As far as query languages for XML documents are concerned, we will focus on a set of problems related to the definition and implementation of query languages for semistructured data and web sites. We will study a query language based on a tree logic and another based on a logic to query graphs and to describe their properties (useful for the WEB). We will additionally propose an efficient implementation of our query languages.This efficient implementation will have to be based on cost-based optimization. Cost-based optimization, in turn, needs the definition of a storage model for the data to be queried, of a physical algebra to query these stored data, of a logical query algebra, ad of a cost model. The query algebra should present some operator redundancy, so that an optimizer will have space to look for the cheapest among the many different plans that may be used to implement the same high-level query. We will study the applicability of our results to the language proposed by the W3C XML-query committee.

206

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO   45  500 

(258.23 KEuro) Motori di ricerca per dati semi-strutturati 

     45  500 (258.23 KEuro) 

  

207

Workpackage 7

Referente del Workpackage Cognome ALOISIO Nome GIOVANNI Qualifica Professore Straordinario Ente di appartenenza Universita' di Lecce 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 140 Costo totale previsto 1.262 

(651.77 KEuro) 

Descrizione

PORTAL FOR EFFICIENT GRID ACCESS

L'obiettivo di questo WP è di progettare ed implementare un portale di accesso ad una griglia computazionale che sarà dispiegata ed usata dai ricercatori che collaborano al progetto. Portali e griglie sono uno sviluppo recente nel campo del calcolo scientifico su larga scala . L'obiettivo di un portale è permettere l'accesso facile ad un insieme eterogeneo di risorse fornendo una interfaccia consistente e semplice da usare ad un ambiente complesso in modo che un utente possa velocemente svolgere il suo lavoro senza essere uno specialista in materia di computer; esso permette l' accesso trasparente alle risorse remote, inclusi i calcolatori, gli archivi, i server di informazioni ed i repositories di codici condivisi. Il portale può essere generico o può essere specializzato nell’ambito di un particolare settore e supportare capacità di problem solving particolari, come lo sviluppo dei codici di simulazione per la comunità scientifica o lo sviluppo di componenti avanzati riutilizzabili.Il portale da sviluppare utilizzerà strumenti di sicurezza e di calcolo avanzati per fornire servizi sicuri e per permettere l' accesso a tutti i componenti della griglia di calcolo attraverso un' interfaccia Web da un qualunque web browser.L' infrastruttura di griglia promuove la creazione di organizzazioni virtuali al cui interno le risorse sono condivise nell’ambito delle istituzioni tramite servizi di griglia, mentre il portale promuove la creazione d'una Comunità per lo sviluppo e la condivisione di codici di simulazione e di risultati scientifici. Si farà uso di tre tecnologie primarie per costruire il nostro portale: il Globus toolkit per i servizi di griglia, e varie tecnologie Web e Java per semplificare lo sviluppo. Per minimizzare le difficoltà introdotte dalla eterogeneità delle risorse, dei meccanismi e delle politiche di accesso e dai complessi problemi di coordinamento (per esempio, per quanto riguarda autenticazione ed autorizzazione), useremo come middleware di griglia il Globus toolkit. Il toolkit di Globus è un insieme di servizi e di librerie software che supportano le griglie computazionali e le applicazioni di griglia. Il toolkit include il software per la sicurezza, l' infrastruttura informativa, la gestione delle risorse, la gestione dei dati, la comunicazione e il rilevamento di problemi software. È strutturato come un insieme di componenti che possono essere usati indipendentemente o insieme per sviluppare utili applicazioni e strumenti di programmazione.I componenti del toolkit di Globus includono l' infrastruttura di sicurezza di griglia (GSI), che fornisce un servizio di autenticazione single sign-on, con supporto alla delegazione delle credenziali, al controllo locale per l’autorizzazione ed al mapping dell’identità dell’utente da globale (dalla griglia) a locale (ad una specifica risorsa di calcolo); l' accesso e la gestione delle risorse di griglia (GRAM) mediante protocolli e servizi che forniscono la allocazione delle risorse e la creazione remota di processi, ed il relativo controllo e gestione; il

208

servizio di Metacomputing Directory Service (MDS), un servizio di accesso alle informazioni relative alla infrastruttura di griglia estensibile che fornisce una struttura uniforme per la configurazione del sistema, la scoperta e l'accesso delle informazioni relative ai servers di calcolo, allo stato della rete e alle posizioni dei datasets (eventualmente replicati); e GridFTP, un protocollo ad alte prestazioni per il trasferimento dei dati.Una serie di servizi di alto livello saranno implementati in termini di questi componenti di base per soddisfare i bisogni specifici dei settori applicativi proposti. Diverse tecnologie saranno impiegate per fornire servizi Web avanzati, ad esempio i linguaggi C e Java, cgi e servlets, applet, SSL, MyProxy, i protocolli HTTP ed HTTPS, XML, DBMS relazionali e JDBC.

PORTAL FOR EFFICIENT GRID ACCESS

Goal of this activity that will be carried out under the responsibility of the Unile/Isufi research group is to design and implement a grid portal that will be deployed and used by the collaboration involved in the project. Portals and grids are a recent development in the large-scale scientific computational field. The objective of a grid portal is to enable easy access to a heterogeneous set of resources providing a consistent, easy to use interface to a complex environment so that the user can rapidly get his or her work done without being a computer expert; it enables transparent access to remote resources, including computers, data storage archives, information servers, and shared code repositories. The portal can be a general purpose one or it can enhance domain-specific component and service development supporting specific problem-solving capabilities, such as the development of simulation codes for the scientific community or the development of advanced reusable Grid.The grid portal to be developed will use advanced security and computing tools to provide secure services and to enable access to any components of the computational grid through a Web interface from any Web browser. The Grid infrastructure fosters the creation of virtual organizations within which resources are shared across institutional boundaries through Grid services and the portal will promote the creation of a community for sharing and developing simulation codes and scientific results. We will take advantage of three primary technologies to construct our portal: the Globus Toolkit for Grid services; and various Java and Web technologies, to facilitate construction of the portal.To minimize the difficulties introduced by the tremendous variety of resource types, mechanisms, and access policies, and the complex coordination issues (e.g., relating to authentication and authorization), we will use as grid middleware the Globus toolkit. The Toolkit includes software for security, information infrastructure, resource management, data management, communication, fault detection, and portability. It is packaged as a set of components that can be used either independently or together to develop useful Grid applications and programming tools.The Globus Toolkit is a set of services and software libraries that support Grids and Grid applications. The Toolkit includes software for security, information infrastructure, resource management, data management, communication, fault detection, and portability. It is packaged as a set of components that can be used either independently or together to develop useful Grid applications and programming tools.Globus Toolkit components include the Grid Security Infrastructure (GSI), which provides a single-sign-on, run-anywhere authentication service, with support for delegation of credentials to subcomputations, local control over authorization, and mapping from global to local user identities; the Grid Resource Access and Management (GRAM) protocol and service, which provides remote resource allocation and process creation, monitoring, and management services; the Metacomputing Directory Service (MDS), an extensible Grid information service that provides a uniform framework for discovering and accessing system configuration and status information such as compute server configuration, network status, and the locations of replicated datasets; and GridFTP, a high-speed data movement protocol.A variety of higher level services will be implemented in terms of these basic components to suit the specific needs of the proposed application domains.Several technologies will be used to provide advanced web services such as C and java languages, CGI and servlets, applets, SSL, MyProxy package, http and https protocols, XML, relational DBMS and JDBC.

209

Risultati attesi

Alcune delle funzionalità più importanti che saranno fornite dal portale sono la gestione del profilo degli utenti, l’accesso ai servizi informativi, la sottomissione di jobs (interattivi, batch e di tipo parameter sweep), il controllo dello stato dei jobs, il brokering delle risorse ed il trasferimento dei files ad alte prestazioni.

1 Gestione del profilo degli utenti

1.1 Aggiunta di nuove risorse Prima di usare il portale, l’utente dovrà creare il suo profilo. Questo file conterrà informazioni relative alle risorse di calcolo disponibili sulla griglia computazionale alle quali egli avrà accesso. Questa funzionalità consentirà all’utente di inserire agevolmente nuove risorse.

1.2 Modifica o camcellazione di una risorsa Questo tool consentirà all’utente di modificare le informazioni relative ad una risorsa o di rimuovere una risorsa.

1.3 Visualizzazione dellle informazioni contenute nel profilo utente. Questo tool consentirà la generazione di un report contenente le informazioni relative alle risorse di calcolo disponibili nel profilo utente.

2 Servizi Informativi

2.1 Data una specifica risorsa di calcolo, sarà consentito l’accesso al servizio informativo per il retrieval delle informazioni relative alla risorsa specificata.

2.2 Sarà possible inoltre effettuare una ricerca nel servizio informativo relativa a risorse di calcolo che soddisfino specifici criteri.

3 Sottomissione & Monitoraggio di jobs

3.1 Sottomissione di un job batchQuesto toll consentiràla sottomissione di jobs di tipo batch, semplicemente indicando il nome della macchina ed il file eseguibile.Se necessario, sarà consentito l’uso di servers GSI-FTP (Globus Security Infrastructure FTP) per effettuare lo staging dell’eseguibile e dei files di input/output.

3.2 Sottomissione di un job interattivo

Nel caso di sottomissioni di jobs interattivi sia l’eseguibile che i files di input potranno essere trasferiti automaticamente mediante GSI-FTP. Lo standard output verrà ridiretto al client browser.

3.3 Sottomissione di jobs di tipo parameter sweep Questo tool consentirà di sottomettere agevolmente jobs per i quali è necessario usare lo stesso eseguibile più volte, con differenti files di input, per esempio al fine di compiere studi parametrici. GSI_FTP potrà essere usato se necessario per lo staging dell’eseguibile e dei files di input/output.

3.4 Monitoraggio dello stato di un job batchQuesto tool permetterà agli utenti di controllare lo stato dei jobs batch precedentemente sottomessi.

3.5 Monitoraggio dello stato di un job parameter sweepQuesto tool permetterà agli utenti di controllare lo stato dei jobs parameter sweep precedentemente sottomessi.

4 Resource Brokering Questo tool sarà un generico resource broker: esso consentirà agli utenti di accedere al servizio informativo per cercare risorse di calcolo e per sottomettere jobs batch sulle risorse che soddisfano i criteri specificati dagli utenti.

5 Trasferimento di files ad alte prestazioni

210

Questo strumento consentirà agli utenti di trasferire files usando GSI_FTP. Il portale permetterà il trasferimento ad alte prestazioni sia di singoli files che di directories.

Some of the most important functionalities that will be provided by the portal are the User's Profile Management, the access to Information services, the Job Submission (batch, interactive and parameter sweep), the Job Status tracking, the Resources Brokering and the high performance File Transfer.

1 User's Profile Management

1.1 Adding New Resources to the user's profileBefore using the grid portal, the user shall create her user's profile. This file will contains information about the computational resources on the grid that the user can access. This functionality will allow the users to quickly setup their user profiles.

1.2 Modifying or deleting a resource from the user's profile This tool will allow the users to edit a resource information in order to modify the information.

1.3 Viewing the user's profile information Users will browse the information related to their computational resources by using this tool.

2 Information services

2.1 Given a specific computational resource, searching its GRIS to determine its features will be allowed.

2.2 Searching a GIIS for computational resources with given features will be also allowed

3 Job Submission & Status Monitoring

3.1 Submitting a batch jobA user will be allowed to submit a batch job simply entering the machine's hostname and the executable name. If needed, we will also allow the use of GSI-FTP servers (Globus Security Infrastructure FTP) to stage the executable and the input/output files to the user's selected machines.

3.2 Submitting an interactive jobIn case of an interactive job submission, both the executable and the input files will be staged automatically using GSI-FTP, if required. The standard output will be sent directly back to the client browser.

3.3 Submitting a parameter sweep jobThis tool will provide a convenient means to run the same executable with different input, e.g. to do parameter study. GSI-FTP will be used if needed for automatic staging of executable and input/output files.

3.4 Checking a batch job status This tool will allow the users to check the status of all the batch jobs previously submitted exploiting the information saved at job submission time.

3.5 Checking a parameter sweep job status This tool will allow the users to inquiry about a parameter sweep job status.

4 Resource Brokering This tool will be a generic resource broker: it will allow the users to search a GIIS to find required computational resources and to submit a batch job on one of the resources matching the specified criteria. Scheduling will be automatically performed by the grid portal, also taking into account the node/hour cost information.

5 High Performance File TransferThis tool will allow the users to transfer files between machines using GSI-FTP. The portal will support single file tranfer and directory transfer.

211

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MILILLO GIOVANNI  

140  1.262 (651.77 KEuro) 

Progettazione ed implementazione di un portale di accesso a griglie computazionali 

     140  1.262 (651.77 KEuro) 

  

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 16 Costo totale previsto 140 

(72.30 KEuro) 

Descrizione

KNOWLEDGE BROKER

All’attività sui portali prevista nel WP7 contribuirà l’ISI/CNR con lo sviluppo di un “knowledge broker”

Obiettivo di questo task è infatti il progetto e lo sviluppo di un nuovo motore di ricerca/ Knowledge Broker, che dovrà consentire l’accesso, utilizzando la metafora delle “viste”, ai dati e metadati presenti su griglie computazionali, nonché ai dati presenti su Internet. Inoltre, l’uso di tecniche per la scoperta e l’estrazione di conoscenza, permetterà sia di integrare dati e informazioni presenti sulle griglie con dati disponibili su Internet (es. risultati di ricerca, siti web esterni, ecc.), sia di adattare le modalità di accesso ed uso di tali informazioni a differenti classi di utenti (decision maker, amministratori, sviluppatori, utenti finali, ecc.) e tecnologie (es. terminali wireless, reti wired/wireless, ecc.). Nei prossimi anni la quantità di dati semi-strutturati (usualmente rappresentati da XML) crescerà notevolmente, sia su Internet che sulle griglie computazionali (es. metadati descriventi risorse e sorgenti informative presenti sulle griglie). Un problema emergente è la compressione o meglio la sintesi di tali dati semi-strutturati. Il Knowledge Broker consentirà la: - Ricerca, localizzazione e classificazione di tali dati, estratti da Grid Portals (es. Globus, ecc.), siti web esterni (Internet), sorgenti dati eterogenee (ORDBMS, database multimediali, biblioteche elettroniche); - Compressione e sintesi dei dati attraverso la costruzione di viste, parametrizzabili rispetto a utente/tecnologia/contesto;- Scoperta ed estrazione di conoscenza (text mining, document synthesis, information extraction).Il nucleo del sistema è un compressore/sintetizzatore semantico con perdita. L’idea di base è di derivare viste sintetiche, ma allo stesso tempo significative, di documenti XML, attraverso una loro interpretazione multi-dimensionale (i.e. gli elementi del documento sono visti come tuple di una relazione multi-dimensionale, con dati aggregati su opportune dimensioni con relative gerarchie). In tal modo, il documento originale è riorganizzato utilizzando delle funzioni di aggregazione, dando luogo ad una versione sintetica (vista) che contiene le informazioni rilevanti del documento stesso.I principali temi di ricerca e le tecnologie che verranno esplorati nel Knowledge Broker sono la:- raccolta semiautomatica di dati semistrutturati da varie sorgenti informative e generazione di documenti “wrapper” (XML). Aspetti chiave: metadata, intelligent search engine, intelligent agents/spiders, protocolli peer-to-peer;- estrazione di schemi da sorgenti di dati semi-strutturati (es. scoperta di pattern simili, euristiche per determinare dimensioni, gerarchie e misure degli schemi multi-dimensionali). Aspetti chiave: datawarehouse, derivazione automatica di proprietà terminologiche (sinonimi, omonimi), ontologie, gestione dei metadati, algoritmi su grafi;

212

- compressione e sintesi adattativa dei documenti, con riferimento a aspettative e comportamento dell’utente (percezione utente), tecnologia utilizzata (terminale, QoS, banda disponibile), contesto/ambiente (lingua, località, tempo, etc.). Aspetti chiave: classificazione e modello utente (Adaptive Hypermedia Systems), tecniche di compressione semantica con perdita, trasformazioni XML.

KNOWLEDGE BROKER

The grid portal will also include a knowledge broker that will be developed by the ISI-CNR as one of the tasks of the WP7. The goal of this task is the design and development of a new search engine/knowledge broker, allowing the access to grid resources metadata and web information, through multidimensional views. The Knowledge Broker will provide different views with different detail levels, allowing to adapt the access and use of such information to different users (decision maker, administrators, planners, developers, etc.) and technologies (e.g. terminals, networks). Moreover, the use of knowledge extraction techniques (OLAP, DM, KDD) will allow to integrate grid-enabled resources/data with Internet contents (e.g. search results, external web site, etc.).In the next years it is likely that the amount of semistructured data (XML) will grow substantially, both on Internet and on computational grids (e.g. metadata describing resources and data available on the grid). An emerging problem is how to compress and synthesise such semistructured data. The Knowledge Broker should allow: -Search, retrieval and content classification, extracted from grid portals (e.g. Globus, etc.), remote web-sites (Internet), heterogeneous data sources (ORDBMS, multimedia database);- Compression/synthesis of extracted data, through the construction of views, depending on user/technology/context parameters;- Knowledge Discovery and Extraction (text mining, document synthesis, information extraction).

The core of the system is a semantic lossy compressor/synthesiser. The main idea is to derive synthetic, yet meaningful, views of XML documents (semistructured data) through a multidimensional interpretation of their data (i.e. document’s elements are regarded as tuples of a multidimensional relation, with aggregate data on suitable dimension intervals). So, the original document is reorganised according to some aggregation functions, resulting in a synthetic (compressed) version of the original one.

Main research themes and technologies that will be explored in the Knowledge Broker task:- gathering of semistructured data from information sources and generation of “wrapper” (XML) documents. Key issues: metadata, intelligent search engine, intelligent agents/spiders, peer-to-peer protocols;- schema extraction from semistructured data (e.g. discovering of frequent similar element structure, and feasible attributes to be considered as dimensions and measures). Key issues: automatic derivation of terminological properties(synonymies, homonymies), onthologies, metadata management, graph algorithms; - adaptive document compression/synthesis, with respect to user wishes and behaviour (user perception), used technology (terminal, required QoS, network bandwidth), environment (language, location, time, etc.). Key issues: datawarehouse, user classification and models (Adaptive Hypermedia Systems), semantic lossy compression techniques, XML management.

Risultati attesi

Il “Knowledge Broker” potrebbe avere un ruolo chiave nell’ambito del WP Grid Portals, consentendo di ottenere differenti viste sintetiche, cioè con differenti livelli di dettaglio e differenti fattori di compressione, che integrano informazioni sulla sottostante infrastruttura di griglia. Le viste possono essere estratte da differenti tipi di dati (metadati relativi alle risorse di griglia, informazioni di tipo dinamico sull’allocazione/utilizzazione delle risorse/reti, dati utente, quali file XML/HTML/RDF, database, sorgenti dati interne/esterne), e possono essere associate a differenti classi di utente. Inoltre, il KNOWLEDGE BROKER potrebbe consentire l’integrazione dei dati su griglia con dati su Internet utilizzando il concetto di vista.

213

The Knowledge Broker could be a key element of the Grid Portals, allowing to obtain different views of the undergoing grid infrastructure, resources, metadata and information. Views can be extracted from different kind of data (Globus/Grid resources metadata, allocation/utilization dynamic data, user/application data (XML/HTML/text files, databases, external/internal data sources) and can be used/bound to different classes of users (administrators, developers, decision maker, application users). Moreover, the KNOWLEDGE BROKER could allow the integration of grid data with external data, such as Internet contents, trough the view concept.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MILILLO GIOVANNI   16  140 

(72.30 KEuro) Sviluppo di un “Knowledge Broker” 

     16  140 (72.30 KEuro) 

  

214

Workpackage 8

Referente del Workpackage Cognome DANELUTTO Nome MARCO Qualifica Professore Associato Ente di appartenenza Universita' di Pisa 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 299 Costo totale previsto 3.600 

(1859.24 KEuro) 

Descrizione

Ambiente di sviluppo integrato ad alte prestazioni

Lo sviluppo di applicazioni per GRID o network computing in generale richiede capacità e proprietà che vanno oltre sia quelle della programmazione sequenziale sia quelle dei linguaggi per la programmazione parallela e distribuita, dal momento che richiedono la gestione di computazioni ed ambienti che sono tipicamente dinamici ed eterogenei nella loro composizione, sia hw che sw/middleware e comprendenti gerarchie di risorse con caratteristiche diverse (e.g. memorie e reti). Inoltre, in questo contesto è necessario organizzare l'interazione tra servizi, sorgenti di dati e risorse hardware remoti. Vi è un crescente consenso nella comunità scientifica sul fatto che gli attuali strumenti e linguaggi di programmazione siano insufficienti nel supportare lo sviluppo di applicazioni di network e GRID computing.

Obiettivo del WP sarà dunque lo studio e la definizione di un ambiente di programmazione ad alte prestazioni per piattaforme GRID/netputing in grado di supportare efficientemente applicazioni multidisciplinari. Per la sua realizzazione si sfrutteranno risultati ottenuti con progetti precedenti (e.g. qPQE2000 e ASI-PQE) relativi alla realizzazione di ambienti di programmazione parallela strutturata per architetture parallele/distribuite tipo rete di macchine omogenee. Inoltre, si studieranno tutti quegli aspetti legati a usabilità, configurazione dinamica ed eterogenea, portabilità, interoperabilità, affidabilità delle prestazioni, tolleranza ai guasti e sicurezza che permetteranno di arrivare alla definizione di uno strumento efficiente per il supporto di applicazioni ad alte prestazioni in ambienti dinamici GRID/netputing.

L'ambiente sarà progettato e realizzato sfruttando tecnologia basata su componenti. Questo permetterà uno studio e una realizzazione delle diverse parti costitutive dell'ambiente più efficiente e razionale. D'altra parte, la realizzazione a componenti permetterà di fattorizzare lo sforzo necessario per lo sviluppo delle applicazioni, in quanto le diverse componenti realizzate potranno essere utilizzate in combinazioni diverse per ottenere i risultati migliori. Infine, la realizzazione a componenti permetterà l'utilizzazione di singole parti funzionali all'intero ambiente anche in ambiti diversi, sempre relativi a piattaforme GRID/netputing ma che

215

non utilizzino l'ambiente risultato del WP inteso come ambiente monolitico. Lo spazio di componenti dell'ambiente verrà strutturato individuando opportuni "schemi di composizione" (pattern) di componenti che consentono di individuare federazioni di sistemi di componenti. A tale scopo verranno analizzate le proprietà algebriche di tali regole di composizione allo scopo di garantire un approccio rigoroso alla costruzione dell'ambiente proposto.

L'ambiente, o le componenti per esso sviluppate, farà uso di modelli di costo, progettati allo scopo, per mettere a disposizione dell'utente finale caratteristiche di adattabilità che permettano di migrare applicazioni fra ambienti di esecuzione diversi pur preservando le loro caratteristiche di efficienza e performance. I modelli di costo saranno anche utilizzati per gestire le situazioni di dinamicità tipiche degli ambienti GRID/netputing (per esempio per guidare le scelte fra alternative possibili nell'utilizzo di componenti hw/sw).

Nella progettazione delle componenti dell'ambiente ad alte prestazioni per GRID/rete eterogenea di macchine verranno prese in considerazione anche forme di cooperazione distribuita non classiche. In particolare, verrà considerato come paradigma di interazione fra le varie entità (hw o sw) anche il modello peer-to-peer. Dall'adozione di questa innovativa forma di interazione fra entità concorrenti/parallele, ci si aspetta di ottenere vantaggi (rispetto a framework unicamente basati sul modello client/server) in termini di scalabilità e performance, dovuti principalmente all'assenza di colli di bottiglia "intrinsechi" tipici ...

High performance, integrated programming environment

The development of GRID/network computing applications requires in general capabilities and properties beyond those needed in both sequential programming and in parallel/distributed programming, as it requires the management of computations and environments that are typically dynamic and heterogeneous in their composition (both hw and sw) and comprehend resource hierarchies with different features (e.g. memory and network). Furthermore, in this context the interaction between services, data and remote resources needs to be organized. There is a growing agreement in the scientific community that current programming languages and tools are not sufficient to support the development of GRID applications .

Therefore a WP goal is the study and the design of a high performance programming environment targeting GRID/netputing platforms and able to efficiently support multidisciplinary applications. In order to realize such environment results from previous projects concerning structured parallel programming environments for parallel/distributed architectures made out of LANs of homogeneous PEs (e.g. PQE2000 e ASI-PQE) will be exploited. Furthermore, all those aspects related to usability, dynamic and heterogeneous configuration, portability, interoperability, performance reliability, fault tolerance and security that will lead to the definition of an efficient high performance application support tool will be studied.

The programming environment will be designed and implemented exploiting component technology. This will allow a more efficient design and implementation of the environment items to be achieved. On the other side, the component based implementation will alleviate the effort required to develop applications, as the different implemented components can be reused in different combinations to achieve better results. Last, the component based implementation will allow single items functional to the whole environment to be reused in different contexts, possibly related to GRID/netputing but not exploiting the integrated programming environment as a whole. The component space of the programming environment will be structured by locating suitable "component compositional schemas" (patterns) that make possible federations of component systems to be individuated. To this purpose, the algebraic properties of such composition patterns will be studied in such a way that a formal approach to environment design could be followed.

The programming environment, or the components developed to implement it, will make usage of cost models that will be specifically developed to provide the final user features that allow applications to be migrated between different execution environments preserving their efficiency and their performance. The cost models will be also used to handle those situations related to dynamic features that are typical of GRID/netputing environments (e.g. to drive the choices between different possible alternatives in the usage of hw/sw components.

During the design of the high performance, GRID/netputing programming environment components, non classical distributed cooperation patterns will be taken into account. In particular, the peer-to-peer pattern will be considered among those patterns that can be used to model different hw/sw entities interactions. By adopting this innovative interaction pattern between parallel/distributed entities we expect to achieve

216

scalability and performance improvements (w.r.t. frameworks uniquely based on client/server models). These improvements will be mainly due to absence of the bottlenecks typical of the classical client/server pattern.

Risultati attesi

Attività 1 : risultati attesi

L'obiettivo principale di questa attività è la realizzazione di un ambiente di programmazione ad alte prestazioni che metta a disposizione del programmatore di applicazioni parallele/distribuite per GRID/netputing una serie di componenti ad altissime prestazioni e una metodologia "strutturata" che lo assista e lo guidi nell'assemblaggio di tali componenti per la realizzazione dell'applicazione finale. In particolare, l'ambiente di programmazione dovrà fornire tutte quanto necessario al supporto delle caratteristiche tipiche degli ambienti GRID, e principalmente delle caratteristiche di dinamicità ed eterogeneità. La realizzazione "a componenti" dell'ambiente permetterà l'utilizzazione delle componenti sia all'interno dell'ambiente integrato, in maniera sostanzialmente trasparente all'utente finale, che fuori dall'ambiente stesso. Quando utilizzate al di fuori dell'ambiente integrato le componenti ad alte prestazioni serviranno per realizzare (parti di) applicazioni sviluppate con metodologie diverse da quelle adottate nell'ambiente integrato, ma in grado di condividere "pezzi" dell'ambiente stesso grazie all'adozione di una qualche definizione "standard" di componente. L'intero progetto e la realizzazione dell'ambiente di sviluppo integrato saranno incentrati su una metodologia di composizione dei componenti "strutturata". Forme standard di utilizzo dei componenti sviluppati per l'ambiente integrato saranno rese disponibili al programmatore di applicazioni (anche multidisciplinari) ad alte prestazioni in modo primitivo. Il programmatore dovrà essere messo nelle condizioni di utilizzare tali forme primitive con il minimo sforzo possibile e soprattutto senza dover spendere sforzi nella programmazione di tutti quei dettagli a basso livello che con gli strumenti di programmazione per GRID attuali sono invece a completo carico del programmatore. Lo studio di modelli di costo per architetture GRID e/o rete geografica di macchine eterogenee e la loro utilizzazione per la definizione di modelli di performance per le applicazioni sviluppate con l'ambiente di sviluppo integrato permetteranno di raggiungere sostanzialmente due obiettivi:

- da una parte lo sviluppo di euristiche e/o strumenti per lo sviluppo di applicazioni di cui sia nota a priori (anche se con un certo grado di approssimazione) la performance,

- e, d'altra parte, lo sviluppo di euristiche e/o strumenti che permettano, a tempo di esecuzione, di gestire le situazioni di dinamicità tipiche dell'ambiente GRID/netputing e, in particolare, di adattare il comportamento delle applicazioni a tali dinamicità in tempo reale.

Infine, ma non meno importante, l'adozione di modelli non classici di cooperazione, quali ad esempio il modello peer-to-peer, nella realizzazione dell'ambiente integrato e dei suoi strumenti di supporto, permetterà il superamento di certi limiti intrinseci nel modello client/server normalmente utilizzato negli ambienti di rete. In particolare, realizzando (parte o tutto) il supporto per l'ambiente utilizzando componenti che cooperano secondo modalità peer-to-peer, ci aspettiamo di riuscire ad abbattere la maggior parte delle limitazioni di performance che attualmente si possono osservare in questo ambiente dovute alla centralizzazione introdotta dalla realizzazione di certi servizi come server acceduti, da remoto, da una gran quantità di client distinti.

L'articolazione delle attività è organizzata in tre fasi:

- (da 0 a +12 mesi) studio di fattibilità e individuazione delle linee di ricerca più opportune

- (da +13 a +18 mesi) architectural design (da +19 a +24 mesi) detailed design dell'ambiente

- (da +25 a +36 mesi) realizzazione della versione alfa, beta e 1.0 dell'ambiente

217

Activity 1: Expected results

The main goal of this activity is the implementation of a high performance programming environment that provides the programmer of parallel/distributed applications for GRID/netputing platforms a set of very high performance components and a "structured" methodology that assist him in the assembly of such components within the final application. In particular, the programming environment must provide all the things needed to support the typical features of the GRID environments, mainly those related to dynamic features and heterogeneity. The component based implementation of the programming environment will allow the developed components to the used within the integrated environment in a seamless way, as well as outside it. Outside the environment the high performance components will beused to implement (parts of) applications developed with methodologies different from those used within the integrated environment, but in the meantime able to share items of the integrated environment due to the adoption of some "standard" component definition. The whole integrated programming environment design and implementation will be focused on a "structured" component composition methodology. Standard ways of using the components provided within the environment will be provided as primitives to the programmer of (multidisciplinary) high performance applications. The programmer must be enabled to use such primitives with a minimum effort and without spending any effort in the programming of all those low level details that with current GRID tools he as to deal with to achieve the same result.

The development of cost models for GRID and/or heterogeneous WAN architectures and their usage to develop performance models suitable for the applications developed with the integrated programming environment will basically lead to two different goals:

- on the one side, the development of heuristics and/or tools that can be used to develop applications whose performance is predictable, even if with some approximation degree

- on the other side, the development of heuristics and/or tools that allow, at execution time, to manage those situations related to dynamic features that are typical of GRID/netputing environments, in particular to retarget the application behavior to take into account these dynamic features in real time.

Last but not least, the adoption of non classical cooperation models, such as the peer-to-peer one, in the design and implementation of the integrated programming environment, will allow to overcome some of the limits inherent to the client/server model usually adopted in network environments. In particular, by implementing all (or part of) the integrated environment using components cooperating in a peer-to-peer way, we expect that the performance limits currently observed in this framework (due to the centralization deriving from the implementation of certain services as server accessed from a range of remote entities) will be eliminated.

The planning of this activity is by phases:

-(from 0 to +12 months) feasibility study, identify the better research tracks

-(from +13 to +18 months) architectural design and (from +19 to +24 months) detailed design of the integrated programming environment

-(from +25 to +36 months) implementation of alfa, beta and 1.0 versions of the integrated programming environment

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. LAFORENZA DOMENICO  

299  3.600 (1859.24 KEuro) 

Ambiente di sviluppo integrato ad alte prestazioni per Griglie Computazionali 

     299  3.600 (1859.24 KEuro) 

  

218

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 120 Costo totale previsto 1.404 

(725.11 KEuro) 

Descrizione

Resource management

Il Grid Information Service (GIS), una componente fondamentale di tutte le infrastrutture GRID, è il sotto-sistema che si occupa di pubblicazione e ricercare informazioni concernenti le risorse disponibili sulla rete. Lo scopo principale del GIS è quello di permettere la scelta ottimale delle risorse computazionali su cui schedulare le computazioni, ma anche quello di identificare dati e componenti software disponibili sul GRID. Quest'attività di ricerca si occuperà di definire e realizzare un GIS scalabile e tollerante ai guasti, investigando anche tecnologie innovative di tipo peer-to-peer. Studieremo inoltre modelli dei dati che permettano una semplice descrizione e aggiornamento delle informazioni pubblicate dal GIS, ma anche una efficace interrogazione del GIS rispetto ai vari requisiti applicativi. Un requisito importante del GIS qui definito riguarderà il trattamento di informazioni altamente dinamiche: per non impattare sulla scalabilità, si vuole raggiungere un alto livello di accuratezza delle informazioni dinamiche distribuite dal GIS, senza richiedere le sincronizzazioni necessarie per garantire una vista consistente dello stato globale.

Una seconda attività si occuperà di specificare e sviluppare strumenti e infrastrutture per permettere a end-user o a servizi GIS di collezionare informazioni sullo stato delle varie risorse Grid, e su guasti o eventuali situazioni di errore. Inoltre, nel caso in cui le applicazioni a componenti siano progettate per modificare la loro configurazione e il loro comportamento in conseguenza di modifiche dinamiche dell'ambiente di esecuzione, il servizio di monitoring dovrebbe fornire alle applicazioni tutte le informazioni necessarie a questo scopo. All'interno di questo filone verrà definito e sviluppato un ambiente che permetta il monitoring del comportamento delle applicazioni.

Quest'ultima caratteristica è necessaria per validare modelli di costo delle applicazioni, ovvero per fornire informazioni agli strumenti di scheduling e di riconfigurazione riguardo la performance prediction delle applicazioni. Quest'attività di ricerca si occuperà infine di fornire agli amministratori della Grid strumenti di allarme e troubleshooting per identificare guasti e fornire motivazioni e suggerimenti per la risoluzione dei problemi.

Un terzo filone si occuperà delle politiche e degli strumenti necessari per l'allocazione-coallocazione, la prenotazione e lo scheduling delle risorse della Grid rispetto alle specifiche esigenze applicative. Consideriamo il caso di una Grid impiegata per realizzare applicazioni ad alte prestazioni o cooperative: in questo caso il requisito fondamentale è l'individuazione di un insieme di risorse su cui coallocare delle componenti software. In alcuni casi, ad esempio per esigenze di QoS o per esigenze legate all'uso esclusivo delle risorse, si rende necessario realizzare anche un sistema di prenotazione distribuito per permettere un successivo scheduling efficace. Studieremo anche lo scheduling "high-throughput" di applicazioni batch di tipo parameter-sweeping, soprattutto per quanto riguarda gli aspetti di scheduling delle computazione rispetto all'accesso ai dati, eventualmente replicati o cached. In particolare, verranno valutate le diverse politiche adottabili in questo caso, che riguardano le scelte tra migrazione del codice o dei dati, o ancora accesso remoto ai dati stessi da parte delle applicazioni. In particolare, si studieranno all'interno di uno stesso framework le problematiche legate allo scheduling e alla prenotazione delle risorse in piattaforme diverse tipo GRID. Verranno considerate problematiche legate alla condivisione time-shared e space-shared di tali risorse, rispetto a requisiti di high-throughput e high- performance. Lo studio sarà basato sulla definizione di alcuni pattern di progetto ricorrenti in tipici applicativi ad alte prestazioni, e di alcuni casi di studio rappresentativi di tali pattern.

219

Resource management (information service, monitoring, scheduler)

The Grid Information Service (GIS), a fundamental component of any GRID infrastructure, is the subsystem that takes care of publishing and searching the information concerning the resources available on the network. The main goal of GIS is to support optimal choices of the computational resources used to schedule a computation, but also to identify the data and the software components available on the GRID. This research activity will define and implements a scalable, fault tolerant GIS, also investigating innovative technology such as the peer-to-peer one. Furthermore, we sill study the data models that allow a simple description and update of the GIS handled information to be achieved, jointly with the possibility to perform GIS queries efficient w.r.t. the different applicative needs. An important requirement for GIS concerns dynamic information handling: to avoid impacts on scalability, we want to achieve a high level of accuracy of the dynamic information distributed by GIS without requiring the synchronizations needed to guarantee a consistent view of the global status. A second activity will take care of specifying and developing the tools and infrastructures that will allow end users and GIS services to collect information on the different GRID resources status, on faults or possible error situations. Furthermore, in case the component based applications turn out to be designed to modify their configuration and behavior as a consequence of dynamic changes in the execution environment, the monitoring service should provide those applications all the information necessary to the purpose. Within this research track, an environment will be designed and implemented that allow the application behavior to be monitored. This last feature is necessary in order to validate the application cost models, that is to provide the scheduling/reconfiguring tools with the information related to application performance prediction. Last but not least, this research track will provide the GRID managers with alarm and troubleshooting tools that can be used to identify faults and to provide motivations and hints to solve such problems.

A third research track within this activity concerns policies and tools needed to allocate, co-allocate, reserve and schedule GRID resources to fulfill applications requests. Take into account a GRID used to implement high performance, cooperative applications: in this case the main requirement is the ability to individuate a set of resources that can be used to co allocate the software components. in some cases, e.g. to satisfy QoS needs or to allow exclusive resources usage, it is necessary to implement a distributed reservation system allowing efficient scheduling to be achieved. We will study also the "high-throughput" scheduling of parameter sweeping batch applications, mainly those aspects concerning the relationships between scheduling and (possibly replicated or cached) data accesses. In particular, different policies will be evaluated, concerning data or code migration, or remote access to data by application code. in particular, within a single framework we'll study the problems related to resource reservation and scheduling in platforms different from GRID. Problems related to time-shared and space-shared sharing of resource in this framework will be taken into account, with respect to the high performance and high throughput requirements. The study will be based on the definition of some project patterns often found in typical high performance applications e on some case studies representative of those patterns.

Risultati attesi

Attività 2

Dal punto di vista dell'architettura del sistema di GIS, verranno valutate diverse strategie per il raggiungimento della scalabilità: ad esempio, verranno confrontate organizzazioni basate su gerarchie, con organizzazione alternative basate su celle con forme di cooperazioni peer-to-peer, fino a combinazioni dei due approcci.

Verranno valutati diversi modelli dei dati per la descrizione delle risorse (siano esse macchine, componenti software, dati, informazioni sul carico, prenotazioni di risorse ecc.), che permettano query complesse sulle risorse disponibili e sulle loro caratteristiche.

Per campi applicativi specifici potrebbe anche essere necessario sviluppare modelli ad hoc. Verranno realizzati servizi efficienti ed efficaci di search e delivery delle informazioni, che garantiscano l'accesso accurato anche a informazioni altamente dinamiche, come quelle che riguardano lo stato del sistema. Verranno definite le componenti coinvolte nell'attività di monitoring, in particolare di quali saranno i produttori e i consumatori di performance event.

220

In questa fase dovrà essere valutata quanta parte delle informazioni prodotte dovrà poi essere collezionata all'interno dei GIS, considerando che le informazioni di monitoring si configurano come stream di eventi da cui bisogna estrarre conoscenze di più alto livello. Saranno inoltre definite e realizzate librerie per l'instrumentation del codice e strumenti di supporto alle decisioni per far fronte a situazioni di allarme nella Grid, e per il troubleshooting relativo. Infine, per quanto riguarda la prenotazione e lo scheduling delle risorse, si arriverà alla classificazione delle applicazioni a componenti in accordo a specifici pattern di progetto. Lo scopo sarà quello di individuare modelli di prestazioni per ogni pattern, in modo da fornire informazioni più dettagliate agli strumenti di scheduling e prenotazione delle risorse riguardo la performance prediction. Si consideri che, per specifici pattern, gli strumenti di scheduling potranno fare scelte di riconfigurazione dell'applicazione in fase di loading. Scelte del genere potranno ad esempio riguardare il mapping delle componenti sulle risorse disponibili e i rispettivi gradi di parallelismo, ovvero scelte legate al performance tuning dell'applicazione sulla base della conoscenza delle risorse effettivamente disponibili sulla piattaforma. Si realizzeranno di diverse politiche di scheduling e prenotazione, orientate alla minimizzazione delle latenze di esecuzione o alla massimizzazione del throughput, di alcuni casi di studio rappresentativi dei diversi pattern di progetto precedentemente individuati. Si arriverà inoltre alla valutazione delle diverse politiche di scheduling, sia in maniera sperimentale e sia attraverso strumenti di simulazione ed alla realizzazione di dimostratori di broker di risorse, che siano in grado non solo di individuare le risorse sufficienti in base alle esigenze specificate dall'utente e alla performance prediction delle applicazioni, ma anche di configurare in maniera ottima o sub-ottima l'allocazione delle componenti dell'applicazione sulle risorse individuate (performance tuning).

L'articolazione delle attività è organizzata in tre fasi:

- (da 0 a +12 mesi) studio di fattibilità e individuazione delle linee di ricerca più opportune

- (da +13 a +18 mesi) architectural design (da +19 a +24 mesi) detailed design delle componenti GIS da realizzare (questa attività sarà condotta tenendo presente le scelte che nel frattempo verranno effettuate nell'ambito della progettazione dell'ambiente di sviluppo integrato.

- (da +25 a +36 mesi) realizzazione della versione alfa, beta e 1.0 delle componenti GIS e loro integrazione nell'ambiente di sviluppo prodotto della prima attività del workpackage.

Activity 2

From the architectural GIS design viewpoint different strategies will be evaluated to achieve scalability; for instance, structures based on hierarchies will be compared with alternative structures based on cells exploiting peer-to-peer cooperation strategies, in the perspective of coming to a joint approach. Different data models will be evaluated to describe resources (either machines, software components, data, load info, resource reservations, etc) that will allow complex query on the available resources and on their features to be computed. Specific application environment may also require the development of ad hoc models. We'll implement efficient search and delivery services of information that guarantee an accurate access to information even in case it is highly dynamic, as the information concerning the system status.Components involved in the monitoring activity will be defined, in particular which are the producers and the consumers of performance events. In this phase we should evaluate how much of the information produced should be actually stored within the GIS, taking also into account that monitoring information looks like event streams from which higher level knowledge must be extracted. Libraries use to instrument the code will also be designed and implemented as well as tools supporting the decisions needed to face the alarm situations on the GRID and the relative troubleshooting activity. Last but not least, as far as resource reservation and scheduling is concerned. we'll come to a classification of the component based applications accordingly to specific project patterns. The goal is to individuate performance models for each one of these patterns in such a way that more detailed information concerning performance prediction can be provided to the scheduling/reservation tools. Take into account that, for specific patterns the scheduling tools will be enabled to perform application reconfiguration choices during the loading phase. Such choices concern, for instance, component to resource mapping as well as the relative parallelism degree, that is choices concerning the application performance tuning and based on the knowledge relative to the resources actually present on the platform. Different scheduling and reservation policies will be implemented aimed at minimizing the execution latencies or to maximize the throughput of different case studies previously defined. We'll also come to the evaluation of different scheduling policies, both experimentally and through simulation tools, and to the

221

implementation of resource brokers prototypes able both to individuate the resource amount matching the user needs and performance needs and to configure in optimal (or sub-optimal) way the application component allocation on the resources (performance tuning).

The planning of this activity is by phases:

- (from 0 to +12 months) feasibility study, identify the better research tracks

- (from +13 to +18 months) architectural design and (from +19 to +24 months) detailed design of the GIS components to be implemented (this activity will be performed taking into account the choices made in the meanwhile in the framework of the integrated programming environment design)

- (from +25 to +36 months) implementation of alfa, beta and 1.0 versions of the GIS components and integration of such components in the integrated programming environment.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO   120  1.404 

(725.11 KEuro) Resource Management 

     120  1.404 (725.11 KEuro) 

  

Attività 3

Durata (mesi) 36 Durata (mesi/uomo) 165 Costo totale previsto 1.696 

(875.91 KEuro) 

Descrizione

Librerie

La strategia di sviluppo del software per applicazioni scientifiche, che tende a realizzare obiettivi come il riuso, la portabilità, l'estendibilità, la modularità, la robustezza, l'efficienza, è basata sull'uso delle librerie in termini di "building block". Attualmente, alla luce dell'evoluzione nell'ambito delle esigenze applicative e delle architetture hardware e software, è necessario ripensare alle strategie di sviluppo di tali librerie allo scopo di preservare le caratteristiche sopra esposte in contesti ampi di interdisciplinarietà e di interoperabilità di software, strumenti di sviluppo, linguaggi, macchine, etc. L'esigenza fondamentale è quella di realizzare e comporre moduli di software numerico, efficienti ed affidabili, in ambienti che rendano sempre più semplice e affidabile la composizione di tali moduli, tra loro e/o con altri software, al fine di concorrere alla realizzazione di software applicativo sempre più complesso.

L'approccio a componenti, che può essere considerato un'evoluzione dell'approccio a oggetti, rappresenta una risposta all'esigenza sopra delineata. Nell'ambito di questa attività del WP, verrà anche studiata la realizzazione di un insieme ampliabile di componenti (toolkit) di supporto per applicazioni scientifiche, che consenta l'utilizzazione di algoritmi numerici e software di base sofisticati in maniera il più possibile trasparente ed efficiente su un'ampia gamma di architetture GRID/netputing ad alte prestazioni. L'idea di base è quella di associare ad una stessa interfaccia una o più implementazioni machine-dependent di uno stesso software o di software diversi, e di progettare opportune interfacce (API), che consentano astrazioni matematiche per individuare classi di solutori piuttosto che particolari algoritmi.

222

I componenti del toolkit saranno sviluppati secondo una metodologia per cui moduli software paralleli per ambienti a memoria distribuita e/o a memoria condivisa (realizzati con strumenti standard e di provata affidabilità, quali le librerie di scambio di messaggi come MPI ed i linguaggi come il Fortran ed il C, con le eventuali estensioni, ad es. OpenMP) verranno completamente integrati come componenti dell'ambiente complessivo garantendone il massimo grado di riusabilità e di interoperabilità. Il toolkit per le applicazioni scientifiche conterrà componenti per la risoluzione di problemi classici, che costituiscono di fatto il nucleo computazionale di numerose applicazioni tecnico-scientifiche, quali operazioni di base dell'Algebra Lineare, calcolo di integrali mono e multi-dimensionali, trasformate veloci di Fourier, ma anche componenti da riutilizzare nello sviluppo di applicazioni avanzate e ad alte prestazioni per il data mining.

Il toolkit fornirà inoltre funzionalità per il trattamento, l'analisi e la visualizzazione di dati spaziali 3D. La disponibilità di adeguati modelli 3D e' un requisito di molte applicazioni scientifiche e di simulazione. Questi modelli devono soddisfare requisiti di accuratezza ed affidabilità e nello stesso tempo devono essere utilizzabili in modo efficiente soprattutto per applicazioni real time basate anche sull' accesso a dati remoti tramite Internet/GRID. Nonostante il miglioramento delle tecnologie di visualizzazione e di trasmissione dei dati il trattamento del modello geometrico, che sta alla base di modelli 3D complessi, rimane il punto critico per raggiungere i livelli di prestazione richiesti dalle applicazioni considerate. A questo scopo l'utilizzo di formati di memorizzazione ottimali nel numero di bit deve essere accompagnato dalla disponibilità di algoritmi di semplificazione, compressione e decompressione efficienti.

Altrettanto importante e' poter discriminare in base all' analisi di caratteristiche di forma i dati più rilevanti in un insieme di elevata cardinalità. Saranno sviluppate componenti che implementeranno algoritmi paralleli per l' analisi, la semplificazione la compressione di modelli geometrici 3D.

Libraries

Software development strategies for scientific applications, aiming at achieving goals such as sw reuse, portability, extendability, modularity, fault tolerance and efficiency, is based on the usage of libraries as "building blocks". Currently, taking into account the evolution of application needs and of hardware and software architectures, we need to redesign the strategies used to develop such libraries to preserve the features mentioned above in wide frameworks of interdisciplinary and inter-operable software, development tools, languages, machines, etc. What it is actually needed is to be able to implement efficient and reliable numerical software modules within environments that make simple and reliable the composition of such modules with other modules or other software items to be able to implement more and more complex applicative software.

The component based approach (which can be considered an evolution ofobject oriented model) represents an answer to this requirement. Within this activity of the workpackage we'll study the implementation of a extensible set of components (toolkit) to support scientific applications that allows sophisticated numeric algorithms and software to be used in a transparent and efficient way on a wide range of high performance GRID/netputing platforms. The basic idea it to associate to the same interface one or more machine dependent implementations of a unique software or of a set of different software, as well as to design suitable interfaces (API) the allow mathematical abstractions to be used in order to individuate solver classes rather than particular algorithms. The toolkit items will be developed according to a methodology such that parallel software modules developed within shared or distributed memory environments (implemented using standard and reliable tools such as communication libraries, MPI, or languages with extensions, e.g. C, FORTRAN + OpenMP) will be fully integrated as components of the overall environment, guaranteeing in the meanwhile the maximum degree of reusability and interoperability.

The toolkit supporting scientific applications will host components to solve classical problems that actually happen to be the core of a large number of technical/scientific applications, such as basic linear algebra operations, integral computations in one or more dimensions, FFT, but also components to be used in advanced high performance data mining applications.

The toolkit for scientific applications will also provide functionalities for 3D spatial data handling, analysis and visualization. The availability of sophisticated 3D models is a requirements of many scientific and simulation applications. Such models should satisfy accuracy and reliability requirements, and should be efficient for real time and Internet based applications. Despite the technological improvement in rendering and in data transmission, the operations on the geometric model of a 3D complex representation remain the bottleneck,

223

which is necessary to overcome to achieve the required performance figures. At this aim it is important to develop optimal representation in the number of bit, and efficient algorithm for simplification, compression and decompression operations.

A further aid will be provided by the possibility of using morphological analysis to select meaningful information from huge amount of data. Performant and portable parallel algorithms will be embedded in suitable components to provide functionalities for 3D data analysis, simplification and compression.

Risultati attesi

Attività 3

Il risultato di quest'attività del Workpackage consiste esattamente nel realizzare un nucleo di librerie scientifiche con caratteristiche di alte prestazioni su architetture GRID e/o reti geografiche non omogenee di macchine e nel renderle disponibili al programmatore di applicazioni anche multidisciplinari in forma perfettamente integrata con l'ambienti di sviluppo/programmazione definito nella prima attività di questo workpackage. Dall'adozione del modello di sviluppo a componenti, sia per le librerie che per l'ambiente in cui verranno integrate, ci si aspetta che l'integrazione delle librerie nell'ambiente di sviluppo risulti semplificata. Inoltre, la scelta di uno standard per la realizzazione dei componenti dell'ambiente e, di conseguenza, per la realizzazione delle librerie, permetterà di disaccoppiare di fatto le attività legate alle librerie da quelle legate allo sviluppo dell'ambiente, almeno nella prima fase del progetto. Inoltre, la realizzazione di "toolkit" numerici per il Calcolo Scientifico ad Alte Prestazioni, basati sull'approccio a componenti, è l'obiettivo di numerosi progetti connessi al "Common Component Architecture Forum" (CCAF), tra questi, i progetti ALICE di Argonne, LSA dell'Indiana University e Babel.

Ci aspettiamo quindi, da una parte di riutilizzare completamente i risultati già ottenuti o in fase di realizzazione in quest'ambito, e d'altra parte di portare un contributo significativo alla ricerca di cui il CCAF è significativo portavoce. Più nel dettaglio, i risultati scientifici attesi sono:

- l'individuazione e l'analisi di differenti metodologie di integrazione;

- l'individuazione e l'analisi di meccanismi/strumenti per la definizione di interfacce a librerie di software scientifico;

- la sperimentazione e l'analisi di servizi che consentano un uso efficace e trasparente delle librerie scientifiche nel contesto dinamico ed eterogeneo di un ambiente di programmazione per piattaforme di tipo GRID;

- un contributo alla definizione di standard per l'integrazione del software scientifico.

L'articolazione delle attività è organizzata in tre fasi:

- (da 0 a +12 mesi) studio di fattibilità e individuazione delle linee di ricerca più opportune, in particolare riguardo la definizione dei moduli da includere fra quelli messi a disposizione del programmatore e sul modello a componenti da adottare (attività questa condotta in stretta cooperazione con le attività svolte nell'ambito della progettazione dell'ambienti di sviluppo integrato)

- (da +13 a +18 mesi) architectural design (da +19 a +24 mesi) detailed design del toolkit librerie

- (da +25 a +36 mesi) realizzazione della versione alfa, beta e 1.0 del toolkit

Activity 3

The result of this workpackage activity exactly consist in the implementation of a high performance scientific library core for GRID and/or heterogeneous WANs and to provide such libraries to (multidisciplinary)

224

applications programmers as a perfectly integrated item of the programming environment which is the result of the first activity of this workpackage. We expect that the adoption of component technology for both the libraries and the overall environment lead to a simplification of the library integration process. Furthermore, by choosing a some kind of component standard to implement programming environment components and, as a consequence, of library items, we will decouple the activities related to library development from those related to programming environment development, at least in the initial phase of the project.

The implementation of component based numerical toolkits for high performance scientific applications is the goal of different research projects related to the "Common Component Architecture Forum, (CCAF)", e.g. the ALICE project at Argonne, LSA at the Indiana University and Babel. We therefore expect that the results already achieved within such project can be completely reused within our framework. We also expect to achieve significant contributions to the CCAF goals.

More in detail, the expected scientific results are:

- identification and analysis of different integration methodologies

- identification and analysis of mechanisms/tools to define interfaces of scientific libraries

- experiments related to and analysis of services allowing an efficient and transparent usage of the libraries within a dynamic, heterogeneous GRID programming environment to be achieved

- a contribute to the definition of standards for scientific software integration.

The planning of this activity is by phases:

-(from 0 to +12 months) feasibility study, identify the better research tracks, in particular those concerning the definition of modules to include between those provided to the programmer and those concerning the component model to adopt (this activity is performed strictly in contact with the activities related to the programming environment design and implementation)

-(from +13 to +18 months) architectural design and (from +19 to +24 months) detailed design of the library toolkit

-(from +25 to +36 months) implementation of alfa, beta and 1.0 versions of the toolkit

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MURLI ALMERICO   165  1.696 

(875.91 KEuro) LIbrerie scientifiche per GRID 

     165  1.696 (875.91 KEuro) 

  

Attività 4

Durata (mesi) 36 Durata (mesi/uomo) 60 Costo totale previsto 732 

(378.05 KEuro) 

225

Descrizione

Problem Solving Environments

Gli strumenti di programmazione per network computing ad alteprestazioni possono essere efficacemente usati nella composizione di ambienti di problem solving (PSE) da usare in differenti domini applicativi. Gli ambienti di problem solving hanno lo scopo di fornire tutte le funzionalità computazionali necessarie per risolvere problemi in un particolare dominio applicativo o in più domini. Un PSE può essere definito per un problema specifico, ma esso può contenere una infrastruttura che è indipendente dal problema. Gli ambienti PSE tendono ad includere codice dell'utente come un elemento modulare di una più grande e composita applicazione. In particolare, nei PSE per sistemi ad alte prestazioni questi elementi saranno generalmente eseguiti su macchine remote. I sistemi PSE permettono al programmatore di una applicazione composita di gestire gli elementi attraverso un modello work-flow che viene eseguita sul nodo host come una parte dell'interfaccia utente primaria. Poiché questi sistemi sono progettati per un ambiente di elaborazione distribuito (es, una griglia), essi includono uno o più sottosistemi per trasferire i dati e il controllo tra i vari processi dell'applicazione. Nell'ambito di questa attività noi intendiamo studiare i requisiti e definire le proprietà di un ambiente di problem solving generale per network computing dinamico ad alte prestazioni basato su tecnologie a componenti e intendiamo fornire una caratterizzazione dell'estensione funzionale generalmente disponibile come parte di un PSE per network e GRID computing. Attualmente i termini PSE e workbench sono usati per descrivere una grande varietà di strumenti di supporto per sviluppare ed eseguire applicazioni. Quando tali termini sono usati per comunicare tra sviluppatori di sistemi e utenti o sviluppatori delle applicazioni vi è un alto grado di ambiguità nella definizione dello specifico PSE in discussione. Un ambiente con termini e categorie ben definiti sarebbe di estrema utilità per tutti i soggetti coinvolti nello sviluppo delle applicazioni PSE di network computing o di grid computing. Per questa ragione in questa attività noi intendiamo investigare e progettare ambienti di problem solving considerando i seguenti aspetti principali: domini applicativi, tipologie degli elementi applicativi, capabilities di composizione, integrazione del codice utente, gestione dei dati, capabilities di interazione e configuration management. Nel progetto di ambienti di problem solving per sistemi di network computing verranno considerate le forti relazioni tra le caratteristiche di un PSE e gli strumenti di programmazione, sviluppati in questo stesso workpackage, che potranno essere usati per implementare, comporre e integrare le componenti del PSE stesso.

Problem solving environments.

The high performance network computing programming tools can be efficiently used to build problem solving environments (PSE) to be used within different application domains. The problem solving environments aim at providing all the functionalities needed to solve problems in a particular applicative domain or in more than a single domain. A PSE can be defined for a specific problem but it can encapsulate an infrastructure which is problem independent. The PSE environments aim at including user code as a module in a larger and composite applications. In particular, in high performance PSEs these elements will be usually executed on remote machines. PSE systems allow the programmer implementing a composite application to manage application components through a work flow model executed on the host as a part of the primary user interface. As these systems are designed for a distributed executing environment (e.g. a GRID), they include one or more subsystems that can be used to transfer data and control between the different processes of the application. Within this activity we plan to study the requirements and to define the properties of a general problem solving environment suitable to be used in a dynamic, high performance network computing framework based on component technology. We also plan to provide a characterization of the functional extension normally available as a part of PSE for network and GRID computing. Currently, the words PSE and workbench are used to describe a large variety of tools supporting the development and the execution of applications. When such words are used to communicate between system developers and users (or application developers) an high ambiguity degree comes in in the definition of the PSE at hand. A framework with well defined terms and categories will be extremely helpful to all the subject involved in the development of PSE targeting GRID and network computing. For this reason, within this activity we plan to investigate and design problem solving environments taking into account the following, main aspects: applicative domains, composition capabilities, user code integration, data management, interaction and configuration

226

management capabilities. In the design of problem solving environments for network computing we'll take into account the strong relationships between the PSE features and the programming tools developed within this package, that will be possibly used to implement, compose and integrate the PSE components.

Risultati attesi

Attività 4

L'obiettivo principale di questa attività del workpackge relativa agli ambienti di problem solving environment consiste nello sviluppo di un modello che permetta la realizzazione di ambienti Problem Solving Environement su architetture GRID e/o rete geografica eterogenea con caratteristiche di alte prestazioni. Tale modello servirà come framework generale per lo sviluppo di specifici ambienti PSE distribuiti e GRID-aware. In particolare, il risultato atteso consiste in un'architettura generale di Problem Solving Environment definita sulla base dell'ambiente di sviluppo integrato oggetto di un'altra attività di questo workpackage. Lo sviluppo dell'ambiente PSE sopra all'ambiente integrato permetterà una realizzazione modulare dello stesso PSE. Inoltre, l'adozione di un modello a componenti derivato dall'ambiente di sviluppo metterà a disposizione dell'utente nuovi e più potenti mezzi per la realizzazione di funzionalità del PSE non originariamente previste mediante assemblaggio di componenti comunque messi a disposizione dal PSE come "building block".

L'articolazione delle attività è organizzata in tre fasi:

-(da 0 a +12 mesi) studio di fattibilità per la realizzazione di ambienti PSE per GRID/netputing realizzati utilizzando tecnologie a componenti tipo quelle utilizzate per la realizzazione dell'ambiente di sviluppo integrato oggetto della prima attività di questo workpackage

-(da +13 a +18 mesi) individuazione di un PSE e (da +19 a +24 mesi) sua progettazione "sopra" l'ambiente di sviluppo integrato risultato della prima attività di questo workpackage

-(da +25 a +36 mesi) realizzazione di un prototipo del PSE candidato che dimostri sostanzialmente la fattibilità dell'approccio

Activity 4

The main goal of this activity in the workpackage concerning PSEs consists in the development of a model allowing the implementation of high performance PSEs on top of GRID and/or heterogeneous WANs. The model will be used as a general framework to develop specific distributed and GRID-aware PSEs. In particular, the expected result consists in a general architecture of PSE defined on top of the integrated programming environment developed within this package. The development of PSEs on top of the integrated environment will allow a modular implementation of the PSE to be achieved. Furthermore, the adoption of a component based model derived from the one used in the integrated programming environment will provide the user with new and more powerful mechanism to implement the PSE features, which was not originally planned, by assembling components that the PSE provides anyway as "building blocks".

The planning of this activity is by phases:

-(from 0 to +12 months) feasibility study concerning the implementation of GRID/netputing PSEs using component technologies such as those used in the implementation of the integrated programming environment which is the result of the first activity of this workpackage

-(from +13 to +18 months) identification of a specific PSE and (from +19 to +24 months) design of this PSE on top of the integrated programming environment

227

-(from +25 to +36 months) implementation prototype of the candidate PSE basically demonstrating the feasibility of the approach.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MURLI ALMERICO   60  732 

(378.05 KEuro) Problem Solving Environments per GRID 

     60  732 (378.05 KEuro) 

  

228

Workpackage 9

Referente del Workpackage Cognome MURLI Nome ALMERICO Qualifica Professore Ordinario Ente di appartenenza Universita' degli Studi di Napoli "Federico II" 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 34 Costo totale previsto 474 

(244.80 KEuro) 

Descrizione

LINEAR ALGEBRA LIBRARIES

Questa attività, condotta dal gruppo del Prof. Paolo Bisegna dell'Università di Roma Tor Vergata, verterà principalmente sullo sviluppo di elementi di software basati su algoritmi iterativi per la risoluzione di sistemi lineari ed il calcolo di autovalori ed autovettori. Tale sviluppo terrà conto sia delle caratteristiche dei paradigmi di programmazione del grid computing, sia delle esigenze computazionali di applicazioni tecnico-scientifiche, con particolare riguardo alla simulazione agli elementi finiti di strutture immerse in fluidi, all’interazione fluido-struttura ed alla modellazione di tessuti biologici a partire da misure impedenziometriche. Le caratteristiche dei problemi applicativi che usano algoritmi di algebra lineare rendono necessario affrontare molti aspetti del paradigma di programmazione grid. Tra questi: 1. i solutori per sistemi lineari sono usati soprattutto all'interno di solutori per PDE, per cui il sistema lineare non è quasi mai un "unicum", ma fa parte di una serie di sistemi consimili; è quindi essenziale porre l'accento su strategie di caching dei dati; 2. è molto importante la fase di costruzione delle matrici coinvolte nel calcolo; un obiettivo è lo studio di strategie di minimizzazione dello scambio di dati necessario alla costruzione del problema stesso;3. la predisposizione di efficaci strategie di checkpointing necessita di cura particolare nella definizione dei protocolli di comunicazione;4. sono spesso presenti grossi problemi di load balancing, soprattutto nel caso di codici che considerino interazioni fluido-struttura, e più in generale codici con multifisica; si può quindi esplorare la possibilità di estendere le formulazioni classiche di load balancing cercando di sfruttare esplicitamente la eterogeneità delle risorse disponibili sulla griglia.Se si considera la struttura e l'uso tipici dei codici agli elementi finiti in ambito fluidodinamico e strutturale, si possono identificare tre livelli algoritmici:1. il livello della soluzione del singolo sistema lineare o del singolo problema agli autovalori;2. il livello della simulazione completa di un sistema fisico, soggetto ad una evoluzione nel tempo;3. il livello della variazione dei parametri progettuali del sistema fisico per la ottimizzazione di indici di prestazione di interesse.Ciascun livello presenta caratteristiche di interesse in ambito grid. L’identificazione dei protocolli, dei metodi di attivazione e trasmissione dati e delle funzionalità che consentano una piena fruizione delle risorse può essere attuata per ciascun livello, dando luogo ad innovazioni complementari ed idealmente integrate in un

229

unicum che metta l'utente applicativo in grado di definire il proprio modello agli elementi finiti, lanciare una simulazione, visionare i risultati, effettuare delle variazioni parametriche e lanciare un problema di ottimizzazione (semi)automatica, con la garanzia che ciascuno di essi sarà eseguito su risorse di calcolo appropriate e con un costo di comunicazione adeguato. Sono possibili notevoli interazioni con le altre attività del WP, sia per quanto riguarda la definizione dei protocolli di comunicazione dati e l’attivazione delle funzionalità di calcolo, che per i problemi di bilanciamento del carico e di resistenza ai guasti. Si potrebbe inoltre esplorare la applicabilità di algoritmi di ottimizzazione al livello 3 della descrizione delineata sopra. Un punto di partenza sarà costituito dal software del progetto PSBLAS, che definisce le specifiche di una libreria di calcolo orientata alla implementazione di algoritmi iterativi su architetture a memoria distribuita. In questa libreria, già sperimentata ed integrata nell'ambito di codici di fluidodinamica computazionale, si pone particolare attenzione ad alcuni dei problemi suddetti, quali la costruzione e comunicazione delle matrici, l’interazione con le strutture dati del livello applicativo e la distribuzione del carico computaz...

LINEAR ALGEBRA LIBRARIES

This activity, carried out by the group from the University of Roma Tor Vergata, led by Prof. Paolo Bisegna, will be devoted mainly to the development of software tools based on iterative algorithms for the solution of linear systems and for eigenvalue and eigenvector computations. Software development in this area will be closely related to both the development paradigm of grid computing, as well as to the computational needs of technical and scientific applications. In this respect, specific attention will be paid to the finite element simulation of structures immeserd in fluids, to fluid-structure interaction, and to modeling of biometric data from impedenziometric measurements. Because of the features common to application areas that make use of sparse linear algebra algorithms , it is necessary to tackle many different aspects, specific to the grid programming environment; some of these aspects are:1. linear system solvers are mostly used inside PDE solvers; therefore the linear system itself is almost never a "unicum", rather, it is but a step in a series of similar systems. It is therefore essential a study of caching strategies;2. the building of coefficient matrix data is very important, for both linear systems and eigenvalue computations; one of the main objectives is the study of strategies to minimise data exchange in this phase;3. there is a strong need to develop effective checkpointing strategies, especially in the definition of communication protocols;4. load balancing problems are very relevant, especially in fluid-structure and (more generally) multiphysics codes; it would be appropriate to study extensions of load balancing techniques to exploit heterogeneity of computational resources. Considering the typical structure and usage modes of finite element codes in fluid dynamics and structural mechanics, it is possible to identify three algorithmic levels, at different granularities:1. the single linear system solution or eigenvalue computation level;2. the complete physical system simulation level;3. the parametric study level, aimed at optimizing critical performance indices.Each of these levels has specific features of interest in the grid context. The definition and implementation activity on protocols, activation methods, data transmission and functional interfaces definitions can be studied at each of these levels; ideally the techniques developed would blend smoothly into a single environment providing support for the use whishing to define his/her finite element model, start the simulation, visualize results, carry out a parametric study and optimize the design, with the confidence that each phase will be executed effectively on the most appropriate resources available, and with a reasonable communication cost. For the linear algebra part of the WP many interactions are possible with the other activities, in terms of communication protocol specifications, functional interfacing and activation of computational resources, load balancing and fault tolerance; it might even be possible to study the applicability of optimization techniques to level 3 mentioned above. The starting point will be the software developed in the PSBLAS project, defining a computational library for the implementation of iterative algorithms on distributed memory architectures. This library, already been integrated and validated in fluid dynamics codes, places specific attention to some of the problems mentioned above, such as the interaction with application data structures, building of the matrices and data communication and computational load balancing.

230

Risultati attesi

Nello svolgirmento del progetto ci si propone quindi di affrontare i seguenti problemi:· identificazione delle esigenze applicative, in relazione alla copertura algoritmica esistente nella base di software esistente, ed eventuale estensione algoritmica; · studio delle problematiche di comunicazione in ambiente grid dei dati tipici della classe applicativa, con particolare riguardo alla attivazione remota;· definizione dei protocolli e metodi di attivazione di funzionalità remota di interesse;· definizione dei paramteri prestazionali relativi alle risorse di calcolo disponibili in relazione alle esigenze della classe di applicazioni coperta da questa sezione di libreria; · estensione della implementazione prototipale attuale, con particolare riferimento allo sfruttamento di archietture di calcolo moderne a memoria distribuita, a memoria condivisa ed ibride; · definizione dei parametri prestazionali della rete di interconnessione. Al termine del programma di ricerca sarà quindi disponibile una definizione delle necessarie funzionalità ed interfacce, ed una implementazione prototipale che integri le componenti infrastrutturali individuate in questa ed altre aree del WP in un insieme di funzionalità adeguate per la classe applicativa di interesse. Possibili estensioni e sviluppi ulteriori della ricerca, da perseguire secondo la disponibilità di risorse, sono: · studio delle funzionalità di generazione, caching e checkpointing ;· studio del bilanciamento dinamico ed adattativo del carico di lavoro e tolleranza ai guasti.

Le attività suddette saranno svolte in base al seguente piano di lavoro:· mesi 1-6: studio delle necessità applicative e delle funzionalità richieste;· mesi 7-12: sperimentazione dello scambio dati in ambiente Grid;· mesi 13-30: definizione e selezione dei metodi di attivazione e dei protocolli di comunicazione;· mesi 13-30: implementazione di una libreria con funzioni di calcolo;· mesi 25-36: problematiche di load balancing e fault tolerance;· mesi 31-36: collaudo in rete ed analisi delle prestazioni.

In the project development we propose to:1. identify application needs, with respect to the algorithmic coverage currently available;2. study communication features in a grid environment typical of the class of problems under consideration, with specific attention to remote activation procedures;3. define communication protocols;4. define performance parameters related to available resources;5. extend the implementation on common architectures available on the grid;6. study performance parameters on the network.At the end of the research there will be a specification of the necessary interfaces and functions, as well as a prototypal implementation that integrates the infrastructure components developed in other activities, in a set of tools adequate for the application class of interest. Further extensions of the research, depending on resources available, include:· strategies for caching and checkpointing;· study of dynamic, adaptive load balancing techniques and fault tolerance issues.

The previous activities will be carried out according to the following workplan:· months 1-6: analysis of application needs and required functionalities;· months 7-12: tests on data exchange in the Grid environment;· months 13-30: definition and selection of activation methods and communication protocols;· months 13-30: implementation of a library with computing functionalities;· months 25-36: load balancing and fault tolerance issues;· months 31-36: test and performance analysis on the network.

231

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MURLI ALMERICO 34  474 (244.80 KEuro) 

Sviluppo di software per l'Algebra Lineare Sparsa in ambiente Grid. 

     34  474 (244.80 KEuro) 

  

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 34 Costo totale previsto 475 

(245.32 KEuro) 

Descrizione

OPTIMIZATION LIBRARIES

Il principale obiettivo dell'attività di ricerca, che ha come responsabile il Prof. Lucio Grandinetti dell’Università della Calabria, è quello di sfruttare le potenzialità offerte dalle griglie computazionali per risolvere problemi di decisione ottima a larga scala, attraverso la definizione e l'implementazione di una libreria software di algoritmi di ottimizzazione. La base di partenza di tali algoritmi è fornita da esperienze precedenti nel campo degli algoritmi di ottimizzazione per architetture parallele e distribuite di tipo convenzionale. Date le caratteristiche peculiari delle griglie computazionali (dinamicità, unreliability, tempi di intercomunicazione differenti, eterogeneità), l’attività di ricerca verrà condotta al fine di progettare ed implementare algoritmi di ottimizzazione che siano:1. opportunistici, ovvero tengano conto del fatto che le risorse disponibili durante il tempo di esecuzione variano dinamicamente a causa di vari fattori,2. asincroni, ovvero operino in modo efficiente ed effettivo nonostante l’eterogeneità dei processori e i tempi di comunicazioni differenti presenti in un griglia computazionale,3. checkpointed, ovvero dotati di meccanismi adeguati tali da consentire di far ripartire il codice nel caso in cui un processore non risultasse più disponibile.L'attività di ricerca mirerà essenzialmente ad integrare la ricerca fondamentale nell'ambito degli algoritmi di ottimizzazione con gli strumenti di sviluppo per la gestione di risorse distribuite su scala geografica. L'obiettivo è sviluppare algoritmi nelle seguenti aree:· Programmazione non lineare,· Programmazione Stocastica,· Ottimizzazione su reti,· Ottimizzazione combinatoria. Nell'ambito delle programmazione non lineare verranno considerati metodi Quasi-Newton, e metodi che utilizzano derivate di ordine superiore al primo per problemi non vincolati.Nell'ambito della programmazione stocastica verranno considerati metodi a punti interni di tipo path-following e metodi di decomposizione per problemi di programmazione lineare stocastica a due stadi.Nell'ambito dell'ottimizzazione su reti verranno considerati metodi di tipo auction per problemi lineari e nonlineari di flusso a costo minimo e massimo flusso; metodi a valutazione e correzione di contrassegno per problemi di cammino minimo multiobiettivo. Nell'ambito dell'ottimizzazione combinatoria verranno considerati algoritmi di branch and bound e branch and cut.

Le attività suddette saranno svolte in base al seguente piano di lavoro:· mesi 1-6: Raccolta del software disponibile in ambiente di calcolo convenzionale, per la soluzione delle classi di problemi di ottimizzazione considerati;

232

· mesi 7-12: Studio delle funzionalità richieste per lo sviluppo del software in ambiente Grid;· mesi 13-24: Sviluppo dei moduli software per la soluzione delle diverse classi di problemi di ottimizzazione;· mesi 25-3: Implementazione della libreria scientifica;· mesi 31-36: Analisi e valutazione delle prestazioni computazionali del software sviluppato.

Sono previste collaborazioni con l’unità di ricerca che cura l’attività 1 del WP relativa allo sviluppo di software per l’algebra lineare sparsa.

OPTIMIZATION LIBRARIES

The main goal of the research activity, under the responsibility of Prof. Lucio Grandinetti from University of Calabria, is to take advantage of grid environments to tackle optimization problems of large size and complexity by designing and implementing an optimization software library. The starting point of the research activity is represented by the knowhow of our research group in the field of parallel and distributed software to solve large scale optimization problems.Given the peculiar characteristics of computational grids (dynamic, unrealiability, heterogeneity, latency highly variables and often slow), the research activity will be devoted to the implementation and designing of algorithms, with the following features:1. opportunistic, i.e. they should take advantage of a processor pool that grows and shrinks during the computation;2. asynchronous, i.e. they should operate efficiently despite heterogeneous processor and variable interprocessor communication times.3. checkpointed, i.e. they are defined so to include adequate mechanisms that allow to restart the codes if a processors disappears without warning.The research activity aims at the integration of fundamental research related to optimization algorithms with software tools for geographically distributed resource management. The main goal is to develop algorithms that exploits the power of computational grids in the following areas:1. Nonlinear programming.2. Stochastic Programming.3. Network optimization.4. Combinatorial Optimization. As far as nonlinear programming is concerned, we will consider Quasi-Newton methods and high order derivatives methods for unconstrained problems.As for stochastic optimization, path-following interior point methods and decomposition methods will be designed and implemented for two-stage stochastic linear problems. In the field of network optimization, we shall consider auction approaches to solve linear and nonlinear instances of the minimum cost flow problem, and label-setting and correcting methods for the minimum multiobjective shortest path problem.As far as combinatorial optimization problems, we will consider both branch and bound and branch and cut solution approaches.

The research activities mentioned above will be carried out according to the following work plan:· months 1-6 Collection of the software available in conventional environment, for the solution of the selected classes of optimization problems;· months 7-12 Analysis of the functionalities required for the design and implementation of the software in Grid environment;· months 13-24 Design of the software modules for the solution of the selected optimization problems; · months 25-30 Implementation of the scientific library;· months 31-36 Analysis and evaluation of the computational performance of the implemented software.

Risultati attesi

I risultati attesi dell’attività di ricerca possono essere così sintetizzati:

233

· fornire un contributo scientifico rilevante alla comunità della ricerca operativa attraverso la definizione di algoritmi innovativi per ambienti di calcolo avanzato;· fornire alla comunità informatica, attraverso un’intensa fase sperimentale, alcuni input per lo sviluppo di ambienti specifici che consentano l’implementazione di algoritmi efficienti su griglie computazionali attraverso una scelta opportuna dei paradigmi di programmazione;· sviluppare una libreria scientifica di algoritmi di ottimizzazione facilmente accessibile da parte della comunità scientifica per essere integrata in varie applicazioni.

I moduli componenti la libreria software consentono la soluzione delle principali classi di problemi di ottimizzazione a cui sono riconducibili la maggior parte delle applicazioni di interesse pratico. La libreria sviluppata si configura, pertanto, come uno strumento esaustivo ed innovativo per il supporto a decisioni complesse che necessitano della soluzione di problemi ottimizzazione difficili e a grande dimensione. Al fine di renderne agevole l’uso da parte di utenti finali anche non esperti, la libreria sarà corredata da opportune interfacce grafiche. L’intensa fase sperimentale, volta ad analizzare e valutare le prestazioni computazionali dei codici sviluppati, rappresenterà, inoltre, un valido contributo verso il miglioramento degli strumenti e delle funzionalità richieste per lo sviluppo di software sofisticato per ambienti di programmazione innovativi.

At the end of the research activity, we expect the following results:1. give a significant scientific contribution to the operations research community regarding the definition and development of optimization algorithms for computational grids;2. provide, by means of an intensive computational activity, the computer science community with some input regarding the implementation of programming paradigms that allows the development of efficient algorithms on computational grids;3. provide the scientific community with a scientific library that could be integrated in several applications involving optimization tasks.

The modules of the scientific library can be used to solve the main classes of optimization problems used to mathematically represent the vast majority of real-world applications. As matter of fact, the library will represent a complete and innovative tool to support complex decisional processes which require the solution of difficult and large scale optimization problems. With the aim to facilitate the use by even not expert end users, the library will be equipped with graphic interfaces. Furthermore, the intensive experimental phase, aimed at analysing and evaluating the computational performance of the implemented codes, will represent a valuable contribute in the direction to improve the functionalities required for the design of sophisticated software for innovative programming environments.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MURLI ALMERICO   34  475 (245.32 KEuro) 

Sviluppo di software per l'Ottimizzazione in ambiente Grid. 

     34  475 (245.32 KEuro) 

  

Attività 3

Durata (mesi) 36 Durata (mesi/uomo) 126 Costo totale previsto 1.762 

(910.00 KEuro) 

234

Descrizione

RECONSTRUCTION, PROCESSING AND RECOGNITION OF IMAGES

Nell’ambito della Ricostruzione, Elaborazione e Riconoscimento di Immagini, il principale obiettivo dell'attività a cui partecipano ricercatori delle Università di Firenze, Genova, Napoli e del CPS-CNR, e di cui è responsabile il Prof. Almerico Murli, è volta a sfruttare le potenzialità offerte dalle griglie computazionali per risolvere problemi che richiedono il trattamento di immagini e segnali video attraverso la definizione e l'implementazione di una libreria software di algoritmi di ricostruzione, analisi e riconoscimento di immagini.L’elaborazione e la ricostruzione di segnali e l'interpretazione di scene complesse in molte applicazioni (astrofisica, biomedicina, monitoraggio ambientale, etc.) risultano in generale un compito arduo e necessitano della risoluzione di numerosi problemi. Ad esempio, la ricostruzione di dati medico-nucleari, quali quelli provenienti dalla SPECT, richiede l’uso di tecniche numeriche altamente accurate per ricostruire dettagli specifici dell’immagine dell’oggetto medico in esame a partire da dati grezzi. Gli algoritmi di ricostruzione attualmente implementati nei dispositivi biomedici non forniscono risoluzioni adeguate ai fini diagnostici, principalmente per le elevate richieste computazionali. D’altro canto, una delle difficoltà principali nell’interpretazione di immagini consiste nella rappresentazione della conoscenza sugli oggetti nella scena e nella strategia di interpretazione. Le informazioni da immagazzinare sono legate alla natura dei sensori, alle caratteristiche spaziali e radiometriche degli oggetti, alla loro geometria ed alle relazioni spaziali fra di essi. La possibilità recente, ad esempio, di riprendere immagini pancromatiche e multispettrali dal satellite IKONOS II, con risoluzione spaziale di 1-4 metri, apre nuovi orizzonti nel trattamento di immagini per il monitoraggio ambientale. D’altra parte ciò comporta un aumento significativo degli oggetti presenti nella scena e della complessità della loro identificazione e classificazione. Per tali attività risultano disponibili algoritmi e software, ma le elevate richieste computazionali spesso conducono all’impossibilità di sviluppare applicazioni utili. Se da un lato ciò induce all’esigenza di sviluppare algoritmi e tecniche di calcolo ad alte prestazioni, dall’altro è necessario accomunare le esigenze e l’offerta di diverse comunità scientifiche e tecnologiche. Obiettivo di questa attività è la definizione e l’implementazione di un insieme di moduli software di supporto per applicazioni scientifiche, che utilizzino algoritmi di ricostruzione, analisi e riconoscimento di immagini in modo trasparente ed efficiente su un'ampia gamma di architetture ad alte prestazioni, in particolare:· software di ricostruzione di immagini (moduli per la Filtered Back Projection, basati sulla FFT, e algoritmi di tipo gradiente coniugato, basati su operazioni di base dell’algebra lineare).· software di elaborazione a basso livello (moduli per il miglioramento del contrasto e la rimozione di rumore);· software di elaborazione a medio livello (moduli per l’estrazione di features, linee, forme arbitrarie, velocità di oggetti in movimento);· software di elaborazione ad alto livello (moduli per la classificazione non supervisionata di forme).

E’ previsto il seguente piano di lavoro:· mesi 1-3: acquisizione e collezione in banche dati di immagini di test;· mesi 4-6: raccolta di software e strumenti esistenti per lo sviluppo di librerie di ricostruzione, elaborazione e riconoscimento di immagini su griglia;· mesi 7-18: sviluppo di moduli software della libreria per la ricostruzione e l’elaborazione a basso livello di immagini;· mesi 18-27: sviluppo di moduli software della libreria per l’elaborazione a medio livello di immagini;· mesi 28-33: sviluppo di moduli software della libreria per l’elaborazione ad alto livello di immagini;· mesi 34-36: applicazione dei moduli soft...

RECONSTRUCTION, PROCESSING AND RECOGNITION OF IMAGES

In the framework of Reconstruction, Processing and Recognition of Images, the main aim of the research activity that will be carried out by researchers of the Universities of Florence, Genoa, Naples, and of CPS-CNR, under the supervision of Prof. Almerico Murli, is the design and development of software modules in a grid computing environment, to handle problems requiring the analysis at low, medium and high level of an

235

image and video interpretation system through the definition and implementation of a software library of reconstruction, analysis and recognition of images.The analysis and reconstruction of signals and the interpretation of complex scenes coming from many applications (astrophysics, environmental monitoring, biomedicine, etc.) require the solution of a wide spectrum of problems. As an instance, the reconstruction of medical and nuclear data, such as those coming from SPECT, requires the use of highly accurate numerical techniques to reconstruct relevant details of the medical object under exam, on the basis of raw data. The reconstruction algorithms currently implemented in bio-medical devices do not provide a resolution as fine as the diagnosis require, mainly due to high computational requirements.Also, one of the main difficulties in image interpretation is the representation of the knowledge about the objects in the scene and the interpretation strategy. The information to be stored is related to the sensor nature, spatial and radiometric features of the objects, their geometry and spatial relationships among them. For instance, the recent chance to obtain panchromatic and multi-spectral images by the IKONOS-II satellite, with a spatial resolution of 1-4 meters, opens new ways in the treatment and use of remote sensed images for environmental monitoring. On the other hand, the treatment of such data leads to an increase of the objects on the scene and of the complexity to identify and classify them. For each activity algorithms and software are available for the reconstruction, analysis and recognition of images. Nevertheless, the computational requirements increased so much that useful applications are usually not allowed, mainly when they require real time or when the data to be dealt with are huge. This leads to the need of developing parallel algorithms and high performance techniques, but also to the integration of requests and needs of different scientific and technological communities. The aim of this activity is thus the definition and implementation of a set of software modules which are of support to scientific applications, by making use of algorithms for the reconstruction, analysis and recognition of images in a transparent and efficient manner, over a wide range of high performance computing architectures, specifically:· image reconstruction software (Filtered Back Projection modules, based on FFT, and Conjugate Gradients type algorithms, based on Liner Algebra basic computational kernels);· low-level image processing software (modules for contrast enhancement and noise removal);· medium-level image processing software (modules for extraction of features, such as lines, arbitrary shapes and disparities in identifying moving objects);· high-level image processing software (modules for the unsupervised classification of shapes).

The workplan of the activities follows:· months 1-3: acquire and collect test images in databases;· months 4-6: collect existing software for the development of software libraries for reconstructing, processing and recognising images on the grid;· months 7-18: develop library software modules for reconstructing and processing images at low level;· months 18-27: develop library software modules for processing images at medium level;· months 28-33: develop library software modules for processing images at high level;· months 34-36: test the software modules to realize the application prototypes.

Risultati attesi

I principali risultati attesi dalla creazione della libreria sono: 1. la capacità di interfacciarsi con hardware e software ad alte prestazioni remoti;2. la possibilità di accedere a banche dati di immagini remoti. Questa e’ una richiesta tipica dell’elaborazione di dati telerilevati, dove più client necessitano di una piccola parte di dati, compiendo passi di elaborazione in maniera prossima ai dati coinvolti, riducendo il carico di lavoro notevolmente;3. l’uso di parallelismo coarse-grain per accellerare l’accesso a risorse remote in modo concorrente, parallelismo di tipo coarse-grain

Si prevedono tre esempi prototipali di utilizzo della libreria come back-end. Il prodotto software finale che si intende implementare integrerà tre differenti software:· la libreria di Ricostruzione, Elaborazione e Riconoscimento di Immagini che si intende sviluppare, dove moduli di libreria possono essere aggiunti attraverso l’uso delle funzionalità di protocolli di trasferimento sicuri;· un sistema per permettere l’esecuzione remota e le comunicazioni;· alcuni esempi prototipali di applicazioni localizzate sulla griglia che fanno uso della libreria, attraverso chiamate al/ai server di elaborazione di immagini.

236

Il primo prototipo è relativo alla classificazione di immagini da telerilevamento, utilizzando i moduli di estrazione delle features e del clustering non supervisionato. Il secondo nell’ambito del restauro di film degradati, allo scopo di migliorare la qualità dei frame e per permettere l’identificazione e la rimozione di graffi. Il terzo, infine, riguarda la ricostruzione di immagini provenienti da esami medico-nucleari quali SPECT, PET, MRI. Entrambi gli esempi tendono a mostrare come per la gran quantità di dati messi a disposizione dalle suddette applicazioni, sia necessario ed efficiente l’uso di un ambiente a griglia e la libreria di elaborazione di immagini costruita su di essa che si intende sviluppare.

The main goals of this activity are: · making remote high-performance hardware and software easily accessible, such a way more clients shall benefit from investments in these resources; · accessing remote image databases. This is a typical scenario for remote sensing data, where clients usually only need a small portion of the whole data product. By performing these processing steps ``near'' the data involved, network load shall be reduced; · using a coarse-grain parallelism to further speed-up the access to multiple remote resources concurrently.Three prototypes of applications will be developed, each one using the image processing library as back end.

The prototype implementation will be realized by integrating three existing programs: · the Image Reconstruction, Analysis and Recognition library;· a system used for remote method execution and communications;· some image processing applications developed on the grid making use of the library, through remote calls to the server of image processing. The aim of the first prototype is to cluster and classify remotely sensed images from various sensors and combine them to achieve better results in ground cover classification, making use of the feature extraction and unsupervised clustering library modules. The second prototype is in the framework of digital film restoration, with the aim of enhancing the frame quality and allowing the detection and restoration of scratches. The third prototype that we shall intend to develop is about the reconstruction of images coming from medical-nuclear exams like SPECT, PET, MRI. The prototypes will be developed with the aim to highlight how, as the processed image data is large, a distributed computation environment is strongly demanded to allow for the handling of such large datasets and complex methods through a lightweight client.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MURLI ALMERICO  

126  1.762 (910.00 KEuro) 

Sviluppo di software per l'analisi, la ricostruzione ed il riconoscimento di immagini in ambiente Grid. 

     126  1.762 (910.00 KEuro) 

  

Attività 4

Durata (mesi) 36 Durata (mesi/uomo) 48 Costo totale previsto 678 

(350.16 KEuro) 

237

Descrizione

VIRTUAL LABORATORY OF IMAGE PROCESSING

L’attività sarà svolta dal gruppo IFCAI-CNR e CERE-CNR (Palermo), sotto la responsabilità del Dr. A. Machì (IFCAI-CNR).Le immagini e le sequenze di immagini permettono una rappresentazione semantica integrata ed efficace di relazioni spazio-temporali di campi scalari e vettorali in moltissime applicazioni di e-science (ad es. in Astrofisica, Sistemi di Osservazione della terra, Bioinformatica). Le metodologie di Image Processing e Pattern Recognition sono rivolte al condizionamento del segnale fisico grezzo, alla individuazione delle relazioni spazio-temporali fra elementi dei campi multidimensionali rappresentati, al riconoscimento di forme ed aggregazioni significative per l’applicazione. Man mano che si procede dal condizionamento del segnale al riconoscimento, gli algoritmi diventano sempre più specifici dell’applicazione e le strutture dati di supporto all’elaborazione più differenziate e rivolte alla rappresentazione degli oggetti semanticamente interessanti per l’applicazione. L’uso remoto di librerie applicative risulta quindi complesso in una organizzazione client-server ed una sfida in un contesto di Organizzazione Virtuale.Obiettivi dell’attività sono la definizione di regole, la selezione di modelli di programmazione e lo sviluppo di strumenti di ausilio alla programmazione che permettano di integrare in una Libreria Virtuale moduli applicativi sviluppati in laboratori e per applicazioni distinte, renderne immediato l’utilizzo remoto, e fornire alla comunità scientifica componenti software per la realizzazione di un Laboratorio Virtuale di Image Processing (VIPLab). Questa attività è rivolta allo studio dell’architettura software della libreria. Utilizzando come case-study un’applicazione di restauro digitale di filmati cinematografici sviluppata dall’IFCAI nel progetto CE-FESR-CNR “Grafica Avanzata per Applicazioni Industriali e Commerciali” e le applicazioni ufficiali del Progetto, saranno definiti protocolli e servizi standard per la registrazione dei moduli di libreria e la costruzione di funzioni analitiche di previsione della loro performance, API per la loro attivazione e l’ esecuzione di test di performance e query di previsione.Sarà inoltre sviluppato un Software Development Kit (SDK) per l’implementazione di un server di moduli seriali e paralleli di Low-level Image Processing sviluppati in SKIE/ASSIST, mantenendo compatibilità o utilizzando i protocolli del livello Resource dell’Architettura di Protocollo di Griglia.

E’ previsto il seguente piano di lavoro:· mesi 1-3: studio delle applicazioni demo del progetto, identificazione di operatori di uso comune, da inserire nelle librerie demo;· mesi 4-6: identificazione di strutture dati/oggetti da supportare nelle librerie demo, studio delle modalità di utilizzo dei moduli nelle applicazioni (interattività, gestione degli errori) e definizione delle API per i moduli di libreria (modalità di chiamata, formato dei parametri) e dei servizi forniti dai server di libreria (query su catalogo, attivazione moduli, query su performance);· mesi 6-12: sviluppo di moduli applicativi demo e di protitipi di server di libreria operanti su rete locale utilizzando protocolli custom client/server;· mesi 13-24: integrazione dei server su Grid e realizzazione di un prototipo di Laboratorio Virtuale, ottimizzazione locale delle risorse;· mesi 19-24: sviluppo di wrapper ed interfacce per integrare moduli applicativi sviluppati da altre UR nelle applicazioni demo del progetto;· mesi 25-36: revisione di protocolli e servizi ed adeguamento agli standard di ambiente sviluppati in altri WP; realizzazione di un SDK per la costruzione di server di libreria, secondo standard e con strumenti dell’ambiente prodotti in altri WP;· mesi 31-36: sperimentazione sulla griglia del Laboratorio Virtuale ed ottimizzazione del sistema.

VIRTUAL LABORATORY OF IMAGE PROCESSING

This activity will be performed by IFCAI-CNR and CERE-CNR (Palermo), under the responsibility of Dr. A. Machì (IFCAI). In many e-science applications (e.g. in Astrophysics, Earth Observation, Bioinformatics, …) images and image sequences are used to represent in an effective and semantically coherent way spatio-temporal relationships embedded in scalar and vector fields.

238

Image Processing algorithms are mainly oriented to preprocessing of the raw physical signal acquired from sensors, and to the enhancement of meaningful signal features. Pattern Recognition methods are used for identification and recognition of meaningful shapes and for evaluation of their spatio-temporal relationships. While low-level Image Processing Algorithms operate on regular data structures and are generally based on general-purpose kernels, Pattern Recognition methods tend to adapt algorithms to the specific application and to make use of irregular data structure which properly map the relationships among objects meaningful for the application. As a result, cooperative remote usage of application IP libraries is complex and becomes a challenge in the context of Virtual Organizations.Aims of the research activity are the design of rules, the selection of protocols and the development of software tools which help collecting in a Virtual Library, IP & PR modules developed in different laboratories for different applications, allowing their remote seemless activation during interactive sessions in a Virtual Image Processing Lab environment.We will devote our efforts to the definition and implementation of the architecture of a Grid-enabled Virtual IP library. We propose to design and verify protocols and standard services for the registration of modules in the Virtual Library and the evaluation of module performance, to define APIs which allow remote module execution and issuing of performance evaluation queries on serial modules as well as on and parallel ones developed in the SKIE/ASSIST environment.Case studies will be the digital movie restoration application developed by IFCAI in the CE-FESR Project “Grafica Avanzata per Applicazioni Industriali e Commerciali” and the official Project application demos. A Software Development Kit (SDK) will be developed, containing modules for implementation of a IP&PR Library Services Provider, compliant with the Grid Architecture Protocol at the Resource Level .

We expect to adhere to the following workplan:· Months 1-3: study of official Project application demos; identification of common use operators candidates to be included in the IP&PR demo libraries. · Months 4-6: identification of data structures (objects) to be supported in the demo library, study of modalities of library modules usage ( ex. interactivity, error handling) ; definition of library APIs ( call format, parameters encoding ); definition of services offered by the library service provider (queries on the catalog of modules, documentation, module activation, queries on the expected performance).· Months 6-12: implementation of library application modules for the inner application and development on LAN of a set of library servers based on custom client/server protocols. · Months 13-24: implementation on the Grid of Globus-compliant servers and development of a prototype of the Virtual Laboratory. Optimization of local resources. · Months 19-24: development of interfaces and wrappers for integration in the demo libraries of modules developed by other Research Units for other application demos of the Project.· Months 25-36: revision of services, protocols and APIs to reach compatibility with environment standards developed in other WPs. Development of an SDK for the Virtual Laboratory server side implementation. · Months 31-36: test of the Virtual Lab on the Grid and system optimization.

Risultati attesi

I risultati della ricerca attesi possono essere così sintetizzati:· un insieme di regole, procedure e protocolli formalizzati, che possano essere utilizzate da ricercatori del settore come esempio per costruire librerie di moduli Image Processing attivabili via rete e proposte come componenti di uno standard per lo sviluppo di librerie per la Visione Artificiale.· una libreria di moduli base di Image Processing integrabile tramite interfacce standardizzate con moduli applicativi sviluppati nelle applicazioni demo del Progetto.· un insieme di regole, procedure, protocolli per la previsione della performance di algoritmi di librerie scientifiche a servizio dei moduli di ottimizzazione delle risorse di Griglia.· un package di supporto alla costruzione di un server di libreria su GRID (SDK)· un semplice ambiente per la attivazione dinamica ed il test di moduli disponibili sia su nodo locale che su griglia (Laboratorio Virtuale) · risultati preliminari sulla integrazione delle metodologie e del software sviluppato in piattaforme complesse basate sul toolkit Globus.

239

We expect to obtain the following results:· a set of rules, standardized procedures and formalized protocols that can be used by researchers in the field as templates for building network enabled Image Processing libraries. Such a set could develop as part of a standard for Artificial Vision grid enabled Libraries.· a library of basic Image Processing modules , easily expandable to incorporate, through standardized interface application modules developed in the demo Project applications.· a set of rules, standardized procedures and formalized protocols enabling forecast of library module performance on behalf of Grid resource optimization agents.· a package supporting a portable implementation of a Grid Library Module Server (SDK) · a simple environment for uniform dynamic activation and test of library modules available both on the local node and on the Grid. (Virtual Laboratory)· preliminary results of usage of the developed methodologies and software in complex Virtual Organization environments based on the Globus Grid toolkit.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MURLI ALMERICO  

48  678 (350.16 KEuro) 

Sviluppo di strumenti software per la realizzazione di un Laboratorio Virtuale di Image Processing. 

     48  678 (350.16 KEuro) 

  

240

Workpackage 10

Referente del Workpackage Cognome BENACCHIO Nome LEOPOLDO Qualifica Astronomo Associato Ente di appartenenza Osservatorio Astronomico di Padova 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 61 Costo totale previsto 745 

(384.76 KEuro) 

Descrizione

Accesso e consultazione di basi di dati astronomici.

Con questo dimostratore ci si propone di studiare l’accesso remoto a basi dati e archivi astronomici attraverso servizi di Grid. Gli scopi dell’applicazione sono: studiare e validare concetti per l’installazione sulla Grid di basi dati e archivi astronomici; studiare e validare concetti che permettano agli astronomi di visualizzare e selettivamente acquisire dati archiviati; derivare requisiti per lo sviluppo futuro di strumenti Grid per l’accesso a servizi dati astronomici. L’archivio pilota (LTA) del Telescopio Nazionale Galileo (TNG) ed il Guide Star Catalog 2 si possono considerare come test ideali a questo scopo in quanto, essendo diversi in struttura, strumenti e contenuti, si possono considerare come nodi dati della sezione astronomica di una futura Grid italiana della ricerca.

Il progetto pilota LTA TNG si sta attualmente sviluppando mediante l’integrazione di sottosistemi esistenti in un unico prototipo; per la realizzazione viene utilizzato software commerciale o di pubblico dominio per evitare inutile duplicazione di lavoro; ad esempio il DBMS è commerciale (Oracle) nell’implementazione pilota. Alla fine della fase pilota (primavera 2002) i dati archiviati (le osservazioni scientifiche ed i dati tecnici) localizzati presso l’OATs saranno disponibili alla comunità astronomica italiana.

Il sistema di consultazione del catalogo GSC-II è un’applicazione Web per l’accesso a grandi cataloghi astronomici, nello specifico il GSC 2.2. Le parti principali del sistema sono il catalogo stesso ed il sottosistema di consultazione. Il catalogo è basato sull’Informix Dynamic Server 2000 dell’IBM, un DBMS object-relational, reso più efficiente da un modulo per la gestione degli R-Tree sviluppato internamente. Il database contiene sia i dati che i metadati dei cataloghi disponibili. Il sottosistema di consultazione è fortemente basato su Java sia dal lato server che da quello client. L’utente usa applet Java che forniscono un’interfaccia utente avanzata verso il lato server del sistema, che è basato su una serie di servizi realizzati tramite Servlet Java.

Access to data from astronomical archives and data bases

241

With this demonstrator we propose to study the remote access to archives and databases through Grid services. Final goals of the demonstrator are to: explore and validate concepts for the deployment on the Grid of astronomical archives and databases; explore and validate concepts for providing astronomers with remote visualization of astronomical data and their selective download; derive requirements for future developments of Grid services for remote access to astronomical data facilities. The pilot Long-Term Archive (LTA) for the Italian national ¡§Galileo¡¨ telescope (TNG) and the Guide Star Catalog 2 are ideal test-beds for this purpose because, being different in structure, tools and contents, they can be considered as complementary data-providing nodes of the astronomical part of a future Italian research Grid.

Among others, the implementation/availability of the following features shall be considered in the porting of the existing applications on the Grid:ƒ{ availability of an appropriate data transmission infrastructure;ƒ{ support for transmission of compressed scientific data, using both lossy and lossless algorithms (both standard and optimised for astronomical images);ƒ{ availability of a security mechanism, identifying completely a user and his/her privileges (e.g. accessing proprietary data in the archive facilities on the Grid); ƒ{ support of dynamic configuration of user interfaces, depending on the user profile and on the characteristics of the data site being accessed.

The TNG LTA pilot project is being currently carried out, integrating existing subsystems to assemble a prototype. Commercial Off-The-Shelf (COTS) or public-domain software are being used where available, to avoid unnecessary development work; as an example, the database management system is commercial (Oracle) in the pilot implementation. At the end of the pilot phase (spring 2002), the archived data (both scientific observations and housekeeping information), located at the OATs, will be made available for the Italian astronomical community to access.

The OaPd GSC-II Catalog Consultation System is a web-based application for the access to large astronomical catalogs, mainly the GSC 2.2. The main parts of the system are the catalog repository and the consultation sub-system. The catalog repository is based on the IBM Informix Dynamic Server 2000, an object-relational DBMS, enhanced with an internally-developed module for R-Tree management. The database stores both data and metadata of the available catalogs. The consultation sub-system is strongly Java-based both on the client and on the server sides. The user utilizes a Java Applet downloaded from the Web by its browser. The applet provides an advanced user interface to the server-side part of the system, that exposes a set of services realized by Java Servlets.

We will study the problem of porting the data access tools of both projects to the Grid by using DataGrid tools and features, in order to enable distribution mechanisms on the server sites, and by providing end users (researchers) with Grid-based tools for retrieval of archived data. In the design of data access tools we will also take into account the issues of interoperability with other data providers and repositories, by co-ordination with international efforts (OPTICON and AVO).

Risultati attesi

Nel corso del lavoro verrà studiato il problema di portare gli strumenti di accesso ai dati in ambiente Grid per entrambi i progetti, utilizzando strumenti e caratteristiche di DataGrid per abilitare meccanismi di distribuzione dati sui server e per fornire agli utenti strumenti basati su Grid per l’accesso ai dati. Nel disegno degli strumenti di accesso ai dati si terrà conto dei problemi di interoperabilità con altri fornitori di dati, mediante coordinamento con progetti internazionali (OPTICON e AVO).

Il previsto coordinamento con i progetti sopra citati, che sono in corso di svolgimento, permetterà a questo progetto di utilizzare strumenti e know-how sviluppati in altri ambienti. Come ricaduta del progetto, si provvederà a fornire una serie di suggerimenti tecnici per l’armonizzazione di progetti futuri, tesi alla creazione ed utilizzo di archivi di dati di interesse astronomico, nell’ambito di una futura Grid della ricerca italiana.

Le seguenti caratteristiche saranno prese in particolare considerazione, tra le altre, nel portare le applicazioni esistenti in un contesto Grid:

242

- disponibilità di un’infrastruttura di trasmissione dati adeguata; - supporto per la trasmissione di dati scientifici in forma compressa, usando sia algoritmi lossy che lossless (sia standard che ottimizzati per immagini astronomiche); - disponibilità di un meccanismo di gestione della sicurezza, che sia in grado di identificare un utente ed i suoi privilegi (es. accesso a dati proprietari sulle sedi di archivio della Grid); - supporto per la configurazione dinamica delle interfacce utente, che si adattino al profilo dell’utente e alle caratteristiche del sito cui si accede.

The foreseen product of the project is a system, to be provided to scientists, allowing a transparent access to different types af astronomical databases and archives. Such data providing facilities shall be seen as specialized nodes of the Grid, in the framework of a prototype multi-functional environment. The Grid will be also exploited in its lower-level functions to perform data mining on the archived data, possibly in a distributed mode.

The foreseen co-ordination with the above-mentioned ongoing projects (OPTICON and AVO) will allow to benefit from tools and know-how developed within different frameworks. As a fall-out of the project, technical suggestions will be made for the harmonisation of the future national projects aimed at the creation and exploitation of data archives of astrophysical interest within a future Grid of Italian research.

The know-how acquired during the project is foreseen to be shared within the national astronomical community. A spin-off action on small software companies initialized by the young computer scientists to be involved in this project is another possible fall-out of this proposal.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO 61  745 

(384.76 KEuro) Accesso e consultazione di basi di dati astronomici 

     61  745 (384.76 KEuro) 

  

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 92 Costo totale previsto 1.124 

(580.50 KEuro) 

Descrizione

Accesso ad una facility per la pipeline di calibrazione di immagini astrofisiche da grande campo

Con questo dimostratore ci si propone di studiare l’utilizzo di tecnologie di Grid nell’elaborazione di immagini di largo campo e nel fornire agli utenti accesso remoto a pipeline di elaborazione dati attraverso serrvizi di Grid. Gli scopi dell’applicazione sono: studiare e validare concetti per l’installazione sulla Grid di pipeline di elaborazione dati astronomici; studiare e validare concetti che permettano agli astronomi di accedere a pipeline di elaborazione e visualizzazione; derivare requisiti per lo sviluppo futuro di strumenti Grid per l’accesso a servizi di elaborazione dati astronomici.

243

All’interno della comunità astronomica internazionale vi è un certo numero di progetti (es. VST/OmegaCAM, MEGACAM, VISTA, WFCAM, WFC/LBT) che costruiscono imagers a largo campo, sia nel dominio ottico che in quello infrarosso. I ricercatori coinvolti in questi progetti si sono resi conto che l’enorme flusso di dati che ci si aspetta da questi strumenti avrebbe causato seri problemi per la loro riduzione ed analisi. Si sono così create delle collaborazioni per scambiarsi know-how e algoritmi, allo scopo di minimizzare gli sforzi necessari alla costruzione dei centri dati necessari ai rispettivi progetti. Una di queste iniziative (ASTRO-WISE, che opera nell’ambito del pregetto OPTICON dell’UE) fornirà strumenti di elaborazione dati per la nuova generazione di imagers a largo campo europei.

Il nostro scopo è quello di esplorare un’area non coperta dalle iniziative internazionali descritte in precedenza. Infatti, ASTRO-WISE mira principalmente alla creazione di strumenti e servizi da utilizzare nei centri dati, laddove l’AVO varrà costruito usando i dati da tali centri prodotti, una volta che siano stati ridotti e calibrati. La nostra ricerca si posizionerà tra queste due aree. Studieremo infatti il problema della portabilità di strumenti di elaborazione dati sviluppati all’interno di ASTRO-WISE sulla Grid, allo scopo di distribuire le procedure di calcolo intensivo tra i siti partecipanti al progetto. Studieremo inoltre il modo di fornire agli utenti degli strumenti basati su Grid per la creazione e la sottomissione di job, e per il relativo recupero dei dati elaborati. Questo permetterà loro di accedere più facilmente ai dati necessari per la loro ricerca, di adattare il processo di riduzione dati ai loro bisogni, e di accedere a dati distribuiti su sedi multiple, permettendo un migliore utilizzo dei dati stessi. Nello sviluppare il nostro lavoro ci manterremo in stretto contatto con i summenzionati progetti internazionali, in particolare per garantire la compatibilità dei modelli e degli standard nello scambio dei dati. I tempi-scala per questa ricerca (3 anni) sono adatti al tipo di applicazione proposta. In questo periodo ASTRO-WISE produrrà e distribuirà strumenti di elaborazione e visualizzazione di dati, che intendiamo portare in ambiente Grid. Allo stesso tempo AVO concluderà la sua fase A; in particolare sarà completata la verifica e le funzionalità necessarie per l’interoperabilità.

Le seguenti caratteristiche saranno prese in particolare considerazione, tra le altre, nel portare le applicazioni esistenti in un contesto Grid:- infrastruttura di trasmissione dati per il trasferimento dei dati stessi tra i centri e gli utenti remoti; - autenticazione e autorizazione degli utenti; - distribuzione e replica dei dati; - servizi di co-allocazione, scheduling e brokeraggio; - ricerca di risorse; - sistemi di programmazione per il porting di applicativi in ambiente Grid.

Acces to a facility for the calibration pipeline of wide field images

With this demonstrator we propose to study the application of Grid technologies in the processing of wide field imaging data and in providing researchers with remote access to pipelines through Grid services. Final goals of the demonstrator are to: explore and validate concepts for the deployment on the Grid of astronomical image processing pipelines; explore and validate concepts for providing astronomers with remote access to astronomical data processing and visualization; derive requirements for future developments of Grid services in the framework of remote access to astronomical data processing facilities.

A number of projects have been initiated to build wide field imagers both in the optical and infrared region (e.g. VST/OmegaCAM, MEGACAM, VISTA, WFCAM, WFC/LBT). Researchers involved in these projects, have realized that the flood of data expected from these new facilities was going to pose severe problems for its reduction and analysis. They have thus started collaborations in order to share expertise and tools, with the aim of reducing the effort required to build data centers for the respective projects. One such initiative (ASTRO-WISE, operating within the EU OPTICON project) will deliver facilities for the processing of the data stream from Europe's new generation of wide field survey cameras.

Our aim is to explore an area which is not covered by the other initiatives in the field of wide imaging data processing, described above. In fact, while the ASTRO-WISE initiative aims mainly at tools and services to be used within individual data centers, AVO will be built using the data produced by those data centers once they have been fully reduced and calibrated. Our research will be positioned in between these areas. We will study the problem of porting data processing tools developed within ASTRO-WISE to the Grid, in order to enable distribution of computing intensive tasks among partecipating sites. We will also study the problem of providing end users (researchers) with Grid-based tools for job creation, submission and retrieval of processed data. This will allow them to access more easily the data of interest for their research, to custom

244

tailor the data reduction process to suit their needs and will also allow additional exploitation of data by permitting researcher to access data residing in multiple data centers. Our work will be conducted while maintaining a close contact with the above international projects, in particular to ensure compatibility of the data models and data exchange standards. The time scale for this research (3 years) is particularly suited for the type of work we propose. During this period the ASTRO-WISE project will produce and deliver data processing and visualization tools that we plan to port to the Grid. In the same time frame the AVO project will complete its Phase A, in particular the assessment of functionalities and standards for interoperability within the AVO will be finalized.

Among others, the implementation/availability of the following features shall be considered in the porting of the existing applications on the Grid:- data transmission infrastructure for data transfer among data centers and end users;- user authentication and authorization;- data distribution/replication;- co-allocation, scheduling and brokering services;- resource discovery;- grid enabled programming systems (for porting of applications to the grid).

Risultati attesi

Nella realizzazione di questo dimostratore ci attendiamo di raggiungere i seguenti risultati:

- determinare le capacita' offerte dai servizi di Grid attualmente esistenti nel permettere la realizzazione di applicazioni per l'accesso remoto a pipeline di riduzione dati;- derivare i requisiti per sviluppi futuri dei servizi di Grid al fine di un miglior supporto alle applicazioni che prevedano l'accesso remoto a pipeline di riduzione dati;- derivare i requisiti per sviluppi futuri di pipeline di riduzione dati che vogliano trarre vantaggi dei servizi offerti dalla Grid;- fornire ai ricercatori (astronomi) degli strumenti efficaci per l'accesso remoto alla pipeline di riduzione dati di VST/OmegaCAM.

Results that we expect to achieve with this demonstrator are:

- assess the capabilities of the currently existing Grid services in supporting the deployment of applications for the remote access to data reduction pipelines;

- derive requirements for future developments of Grid services in order to have them better support applications for remote access to data reduction pipelines;

- derive requirements for future development of data reduction pipelines that want to take advantage of the services offered by the Grid;

- provide researchers (astronomers) with effective tools for remote access to the VST/OmegaCAM data reduction pipeline.

245

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MAZZUCATO MIRCO  

92  1.124 (580.50 KEuro) 

Utilizzo di tecnologie di Grid nell’elaborazione di immagini di largo campo 

     92  1.124 (580.50 KEuro) 

  

Attività 3

Durata (mesi) 36 Durata (mesi/uomo) 60 Costo totale previsto 732 

(378.05 KEuro) 

Descrizione

Le tecnologie di GRID per l'accesso remoto a telescopi quasi robotizzati

Con questo dimostratore ci si propone di studiare l’utilizzo di tecnologie di Grid nell’accesso remoto a sistemi di osservazione. Gli scopi dell’applicazione sono: studiare e validare concetti per l’installazione sulla Grid di uno strumento per l’osservazione remota, in modo da portare nella sede di ogni potenziale utente gli strumenti per monitorare e/o controllare un’osservazione astronomica.

Le seguenti caratteristiche saranno prese in particolare considerazione, tra le altre, nel portare le applicazioni esistenti in un contesto Grid:- disponibilità di un’opportuna infrastruttura di trasmissione dati;- possibilità di avere una banda di trasmissione dati garantita durante l’osservazione remota (qualità di servizio); - disponibilità di servizi di gestione delle risorse: ogni messaggio scambiato tra sito osservativo e utente avrà una priorità associata, in modo che attività di priorità più bassa (es. trasmissione di immagini scientifiche) possano essere interrotte da un messaggio di priorità alta (comandi) o altissima (allarmi), e succssivamente ripristinate; - disponibilità di servizi per la trasmissione di dati compressi, che utilizzino algoritmi lossy o lossless (sia standard che ottimizzati per immagini astronomiche);- disponibilità di un meccanismo di gestione della sicurezza, che sia in grado di identificare un utente ed i suoi privilegi (es. monitorare/controllare l’osservazione, accedere all’archivio dei dati di calibrazione al telescopio, accedere a dati nelle sedi di archivio della Grid); - supporto per la configurazione dinamica del meccanismo di sicurezza, gestito da personale autorizzato in un sito master (es. cambiare l’utente abilitato al controllo dello strumento su richiesta dell’amministratore della sede osservativa);- supporto per la configurazione dinamica delle interfacce utente, che si adattino al profilo dell’utente.

Nel campo dell’astronomia osservativa, l’operazione remota di strumenti osservativi è diventata via via più importante . Le principali ragioni possono essere così riassunte: - collocazione dei telescopi in luoghi remoti (isole, alta quota, ecc.), e relative difficoltà logistiche; - impossibilità di sfruttare altrimenti condizioni osservative ideali (es. Antartide); - necessità di supportare uno scheduling flessibile delle osservazioni (cambiare dinamicamente il programma osservativo a seconda del seeing); - in certi casi speciali, la necessità di monitorare l’acquisizione e controllare lo stato dello strumento, valutando interattivamente la qualità scientifica dei risultati (evitando così il service observing, cioè le osservazioni condotte dal personale tecnico di osservatorio).

246

Il volume di dati da scambiare va da un paio di KB nel caso di comandi (es. per cambiare la configurazione di uno strumento) o di semplice telemetria fino a svariati MB per le immagini da scaricare, siano esse scientifiche o di calibrazione. Le dimensioni delle immagini TNG variano da un minimo di 2 MB a 32 MB, con un massimo di 128 MB per i mosaici di CCD più avanzati. Gli algoritmi di compressione possono essere di tipo lossy solo se dedicati alla visualizzazione, mentre dovranno essere lossless per la trasmissione di immagini di interesse scientifico. La risposta del sistema dovrà essere rapida per le operazioni di controllo, che richiedono una reazione quasi in tempo reale. Per quanto riguarda la trasmissione dei dati, questa non è critica; deve però essere dato all’osservatore remoto il tempo necessario per elaborare un’immagine mentre ne viene acquisita un’altra in modo da permettere un’azione correttiva prima di far partire una nuova esposizione.

GRID technologies for the remote observing using highly automated telescopes

With this demonstrator we propose to study the application of Grid technologies in the remote access to astronomical observing facilities. Final goals of the demonstrator are to: explore and validate concepts for the deployment on the Grid of a tool to performing remote astronomical observations, i.e. bringing the tools to perform and control an astronomical observation at each user's site.

Among others, the implementation/availability of the following features shall be considered in the porting of the existing applications on the Grid:

- availability of an appropriate data transmission infrastructure;

- the possibility of having guaranteed bandwidth during remote observation (quality-of-service);

- availability of management of network resource usage: e.g. each message exchanged between each client and the server at the telescope site should have an associated priority, so that lower priority activities (transfer of scientific data) can be interrupted by messages having higher (commands) or highest priority (alarms), with the possibility of resuming operations afterwards;

- support for transmission of compressed scientific data, using both lossy and lossless algorithms (both standard and optimised for astronomical images);

- availability of a security mechanism, identifying completely a user and his/her privileges (e.g. monitoring or controlling an observation, accessing the calibration archive at the telescope site; accessing database and archive facilities on the Grid);

- the security mechanism shall be dynamically changeable by enabled users located at a master site (e.g. changing user having control on the system upon request by the administrator of the telescope site);

- the system shall support implementation of dynamic configuration of user interfaces, depending on the user profile.

In the field of observational astronomy and astrophysics, teleoperation of observing facilities or experiments is something that is getting increasingly important in time, the main reasons being:

- location of observing facilities in remote locations (islands, mountain tops, etc.), and consequent uncomfortable working conditions;

- impossibility to take advantage of ideal observing situations (e.g. Antartic night) otherwise;

- need to support flexible scheduling at the modern observing facilities (i.e. allowing to change the planned schedule of observations during "super-seeing" conditions);

247

- in a number of specific cases, the need for the scientist to monitor data acquisition, control the instrumental setup, and evaluate the scientific quality of the results (thus avoiding "service observing", i.e. having the observation carried out by technical staff at the observatory premises).

The volume of data exchanged goes from a few KB each time for commands (e.g. to change the observational setup) and basic telemetry to several MB every time an image (scientific or calibration) is downlinked to the remote site. Sizes (uncompressed) vary from a minimum of 2 MB to currently 32 MB, or even 128 MB for the most advanced cameras based on mosaics of CCDs. Lossless compression is required for images having scientific value; lossily compressed images may be used only for quick-look purposes. Response from the system must be quick for essential control operations, which need real-time performance; no significant delay due to remote control can be accepted. Transmission of data are not response-critical; however, given the size of the images involved, transmission via standard Internet might be very inefficient. In general, the remote user should be able to perform some (interactive) processing on the image while another exposure is taken, in order to evaluate the image quality and understand which corrective actions are to be taken, if any, for the next exposure.

Risultati attesi

Il sistema, basato sui dimostratori sviluppati dai progetti REMOT e DYNACORE finanziati dall’UE tra il 1996 e il 2000, sarà integrato e dimostrato sul Telescopio Nazionale Galileo (TNG) situato al Roque de los Muchachos, a La Palma nelle isole Canarie, a 2400 metri di altitudine. Il sistema sarà però costruito in maniera tale da essere facilmente inntegrato su altri sistemi di osservazione, quali ad esempio il Large Binocular Telescope (LBT), il più grande telescopio dell’emisfero nord con i suoi due riflettori da 8 m, che ha una partecipazione italiana al 25% e che vedrà la prima luce nel 2003. Il prodotto previsto dal progetto è un sistema da fornire alla comunità scientifica e che permetta l’accesso ad infrastrutture osservative per la comunità astronomica, viste come nodi specializzati di una Grid, nell’ambito di un prototipo di ambiente multi-funzionale distribuito. Il progetto è di installare un sistema che permetta ad un utente alla volta di controllare la strumentazione mediante comandi da inviare all’assistente al telescopio, e che permetta ad un massimo di altri 3-4 utenti di monitorare la sessione osservativa (tipicamente una notte o una sua frazione). Il sistema deve permettere l’accesso simultaneo di diversi utenti in modo monitoring, mentre ad uno solo è concesso di controllare le funzioni degli strumenti. Altri servizi multi-mediali, quali connessione vocale, lavagna condivisa e videoconferenza tra ricercatori che collaborano e monitorano la stessa osservazione sono anche da considerarsi utili. Si prevede che il know-how acquisito nel corso del progetto venga trasferito alla comunità astronomica nazionale. È inoltre possibile come ricaduta un’azione di spin-off di piccole aziende software inizializzate dai giovani informatici che saranno coinvolti nel progetto.

The system, based on the demonstrators developed in the framework of the REMOT and DYNACORE projects funded by the EU between 1996 and 2000, shall be integrated and demonstrated on the Italian national "Galileo" telescope (TNG) located at Roque de los Muchachos, La Palma, in the Canary Islands, at 2400 m of altitude. The system shall be however built in a general way so to allow easy integration of other observing facilities, such as the Large Binocular Telescope (LBT), the largest telescope of the northern hemisphere with its two 8m mirrors, which has a 25% Italian participation and is expected to see first light in 2003.The foreseen product of the project is a system, to be provided to scientists, allowing a transparent access to observing facilities for the astronomical community. Such data providing facilities shall be seen as specialized nodes of the Grid, in the framework of a prototype multi-functional environment. The plan is to install a system allowing an observing facility to be accessed by one remote user having control over the instrumentation through commands sent to the telescope operator, plus optional users (from 0 to a maximum of 3-4) performing monitoring, for a whole observing session (usually a whole night, or a

248

substantial fraction of it). The system would allow simultaneous operation of a number of different users in monitoring mode, while only one would be entitled to perform instrument control. Additional multi-media facilities, such as voice connection with the site of observations, shared whiteboard and videoconferencing among scientists collaborating in a scientific research project and monitoring the same observations are also desirable.

The know-how acquired during the project is foreseen to be shared within the national astronomical community. A spin-off action on small software companies initialized by the young computer scientists to be involved in this project is another possible fall-out of this proposal.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MAZZUCATO MIRCO  

60  732 (378.05 KEuro) 

Utilizzo di tecnologie di Grid nell’accesso remoto a sistemi di osservazione. 

     60  732 (378.05 KEuro) 

  

249

Workpackage 11

Referente del Workpackage Cognome MILILLO Nome GIOVANNI Qualifica PRIMO TECNOLOGO Ente di appartenenza Agenzia Spaziale Italiana 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 46 Costo totale previsto 423 

(218.46 KEuro) 

Descrizione

Titolo dell'attività: Integrazione delle componenti specializzate di processamento sulla griglia e validazione del sistemaResponsabile di attività: Giovanni Milillo (ASI)Gruppi partecipanti: ASIEstensione temporale dell'attività: mesi 1-36

L'attività si propone di garantire l'armonizzazione dei contributi provenienti dalle altre attività- stabilendo delle regole a priori per l'interfacciamento tra le diverse componenti del sistema (Post Processing Facilies, SSPI, Dynamic Earth Observation Grid);- armonizzando le attività durante le fasi di sviluppo;- sovraintendendo all'integrazione delle singole componenti;- definendo il piano di test e validazione dell'intero sistema.

Activity title: Grid integration of specialized processing facilities and system validationActivity leader: Giovanni Milillo (ASI)Partecipant groups: ASITime span of the activity: months 1-36

This activity will intend to grant the cooperation of all the contribution coming from the other activities by- establishing some a-priori rules for interfacing several components of the system (Post Processing Facilities, SSPI, Dynamic Earth Observation Grid),- harmonising all the activities of each developing phases,- defining the test plan and validation of the whole system

250

Risultati attesi

L'attività prevede almeno i seguenti output:- un documento di specifica per l'interfacciamento tra le diverse componenti del sistema - riunioni, almeno trimestrali, di coordinamento per il controllo delle varie fasi dello sviluppo- un documento di specifica del piano di test e validazione dell'intero sistema

This activity will generate at least the following outputs:- a guide to define the interface control document among the different system components,- meeting, at least every three months, aiming at controlling and coordinating the different development phases,- a document containing the test and validation plan of the whole system.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MILILLO GIOVANNI  

46  423 (218.46 KEuro) 

Integrazione delle componenti specializzate di processamento sulla griglia e validazione del sistema 

     46  423 (218.46 KEuro) 

  

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 170 Costo totale previsto 1.394 

(719.94 KEuro) 

Descrizione

Titolo dell'attività: Definizione e Sviluppo della Dynamic Earth Observation Grid Responsabile di attività: Laura Candela (ASI)Gruppi partecipanti: ASI, Uni.Le/Isufi, E-GEOSEstensione temporale dell'attività: mesi 1-36

L'attività ha come scopo finale la realizzazione della griglia integrata con tutte le componenti applicative (hardware e software). Sono previste almeno le seguenti fasi:- definizione dei requisiti del sistema,- definizione dell'architettura (hardware e software),- specializzazione del middleware di grid computing allo specifico contesto,- implementazione del portale di accesso alla griglia,- porting del modulo di controllo per l'accesso all'archivio dei dati telerilevati (SSPI) come componente della griglia,- integrazione di tutte le altre componenti hardware e software (comprese le componenti applicative, PPF) sulla griglia,- realizzazione delle procedure di test e verifica dei risultati.

251

Activity title: Definition and Development of Dynamic Earth Observation Grid Activity leader: Laura Candela (ASI)Partecipant groups: ASI, Uni.Le/Isufi, E-GEOSTime span of the activity: months 1-36

This activity will finally aim at the realization of te grid integrated with each applicative components (hardware and software).The following phases are foreseen:- system requirements definition,- architectural (hardware e software) design,- grid computing middleware specialization to the earth observation context,- realization of the portal the access the grid,- porting of the control module to access the remote sensing data (SSPI) as grid node,- integration of all the hardware and software components (including the applicative ones, like PPF) onto the grid,- test procedure definition and results checks.

Risultati attesi

L'attività prevede almeno i seguenti outputs:- documento di definizione dei requisiti di sistema,- documento di disegno dell'architettura (hardware e software),- l'attività di sviluppo per la specializzazione del middleware di grid computing allo specifico contesto,- l'attività di sviluppo per l'implementazione del portale di accesso alla griglia,- la realizzazione del porting del modulo di controllo per l'accesso all'archivio dei dati telerilevati (SSPI) come componente della griglia,- l' integrazione di tutte le altre componenti hardware e software (comprese le componenti applicative, PPF) sulla griglia,- il documento delle procedure di test con i risultati relativi.

The activity foreseen at least the following outputs:- system requirements definition document,- architectural (hardware e software) design document,- the specialization of the grid computing middleware to the earth observation context,- the realization of the portal the access the grid,- the realization of the control module to access the remote sensing data (SSPI) as grid node,- the integration of all the hardware and software components (including the applicative ones, like PPF) onto the grid,- test procedures definition document and related results.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MILILLO GIOVANNI 170  1.394 (719.94 KEuro) 

Definizione e Sviluppo della Dynamic Earth Observation Grid 

     170  1.394 (719.94 KEuro) 

  

252

Attività 3

Durata (mesi) 36 Durata (mesi/uomo) 126 Costo totale previsto 1.069 

(552.09 KEuro) 

Descrizione

Titolo dell'attività: Integrazione su "grid" di sistemi di processamento di dati telerilevati per la realizzazione di prodotti applicativi a valore aggiunto Responsabile di attività: Nicola Veneziani (IESI-CNR)

Gruppi partecipanti: IESI-CNR, Università di Bari, Politecnico di BariEstensione temporale dell'attività: mesi 1-36Questa attività prevede l'integrazione in ambiente Grid di tre processori che, operando a partire da prodotti standard di Osservazioni della Terra, generano informazioni a valore aggiunto.Il primo obiettivo é la realizzazione del dimostratore relativo all'applicazione nel campo della geodinamica, finalizzato allo studio delle deformazioni crostali della terra solida.Elemento di volta nella realizzazione dell'applicazione è l'estrazione, da set multipli di immagini SAR-interferometriche (archivio ERS e fase Tandem ERS-1/2), di particolari punti del territorio che si comportano naturalmente come scatteratori altamente affidabili per misurazioni ripetute nel tempo (PS o permanent scatterers). L'individuazione dei PS e la loro localizzazione di precisione con tecnologie GPS presenta un duplice vantaggio. Da una parte, rende possibile valutare in loro corrispondenza l'esatta componente di fase residua dovuta al ritardo atmosferico, correggendone l'effetto di rumore sugli interferogrammi differenziali di volta in volta considerati. Dall'altra, rende possibile una perfetta integrazione in un GIS della rete GPS dell'ASI, attualmente in corso di espansione ad oltre 70 ricevitori permanentemente dislocati sull'intero territorio nazionale, con il reticolo irregolare ma nettamente più densamente popolato costituito dagli stessi PS e, in definitiva, con la griglia regolare ad elevata risoluzione spaziale degli interferogrammi SAR. La stima delle deformazioni tettoniche (su lunghe basi temporali) dovrebbe emergere dalla deformazione progressiva del reticolo congiunto dei capisaldi GPS con i PS, eventualmente confermata localmente negli interferogrammi differenziali, in corrispondenza di aree scarsamente vegetate (a coerenza non marginale).Il secondo obiettivo si avvale di tecniche di analisi di immagini radar quali la tecnica dei Permanent Scatterers (PS). Essa consente di studiare l'informazione di fase in singoli pixel dell'immagine e quindi su strutture al suolo localizzate all'interno della cella di risoluzione: è possibile realizzare uno studio differenziale non convenzionale che consente non solo l'analisi temporale delle deformazioni ma anche una stima più accurata del segnale atmosferico. La possibilità di monitorare movimenti, anche millimetrici, potenzialmente correlati ad eventi catastrofici come crolli o frane, suggerisce l'opportunità di un aggiornamento periodico delle matrice dei dati in input cui segue un nuovo processamento. Un primo tentativo di ottimizzazione delle procedure e della distribuzione del calcolo, estremamente gravoso, è attualmente in corso nell'ambito del progetto ASI-PQE2000.Nell’ambito del presente progetto, in particolare, la ricerca sarà orientata verso un’analisi critica e revisione degli algoritmi implementati nell’ottica di una ottimizzazione delle risorse di calcolo in ambiente parallelo. E' previsto inoltre una generalizzazione degli algoritmi implementati in un contesto che preveda applicazioni a scale spaziali più ampie.Oggetto del terzo task é il retrieval di informazioni dagli archivi dati con tecniche per l’indicizzazione automatica. La classificazione avviene mediante estrazione di caratteristiche globali e locali, quali forma, colore, contenuto spettrale, tipi di texture presenti, distribuzione di luminosità, ecc. Scopo dell'attività qui proposta è la valutazione comparativa dei metodi, già testati su immagini naturali ed in via di adattamento su architetture parallele con supporto MPI/Assist. Verrà verificato l'utilizzo delle procedure già evidenziate nel caso di applicazione a database distribuiti o database non omogenei.

Activity title: Grid integration of processing EO data facilities devoted to realize value-added products

253

Activity leader: Nicola Veneziani (IESI-CNR)Partecipant groups: IESI-CNR, Università di Bari, Politecnico di Bari.Time span of the activity: months 1-36This activity foresees the integration onto the grid of three processing system which, using earth observation standard products, will generate value-added information. This first task will aim at the realization of a demonstrator in the field of geodynamics, directed to the study of crustal deformations of solid Earth. The basic concept for the implementation of this application is the extraction, from a multiple set of SAR interferometric images (ERS archive and Tandem phase of ERS-1/2), of those natural targets in the detected scene which show a reliable behaviour as highly stable scatterers, useful for repeated phase measurements on long time baseline (PS or permanent scatterers). The detection of PS's and their accurate localization, achievable with GPS technologies, allow a twofold advantage. From a part, it is possible to estimate in their correspondence the exact value of residual phase due to the atmospheric delay, by correcting of the noise effect the differential interferograms that are in turn considered. From the other, the PS's make possible a perfect integration in a GIS of the permanent GPS network of ASI, currently in course of expansion beyond 70 receivers, distributed on the entire national territory, with the irregular but more densely populated reticule constituted by the same PS's and, after all, with the regular sampling of SAR-interferograms. The estimation of tectonic deformations (on long temporal bases) would have to emerge from the progressive deformation of the combined reticule of GPS benchmarks with PS's, eventually confirmed locally in the differential interferograms, in correspondence of areas poorly vegetated (at not marginal coherence), by a residual phase congruent with the movement previously estimated. The second task will use the Permanent Scatterers (PS) techniques for radar image analysis. This allows the analysis of the phase information over single image pixels and thus typically on man-made structures: a non-conventional temporal phase analysis can be performed, together with a more accurate atmospheric phase screen estimation and removal.The possibility of monitoring millimetric displacement, potentially connected with catastrophic events such as building failures or landslides suggests the opportunity of a periodic updating of the input data matrix, which must be followed by a new processing. An initial procedure and computational burden optimisation is presently running within the ASI-PEQ2000 project.Within this project, in particular, the algorithms already implemented will be analysed and reviewed in order to optimise the calculus resources by using parallel computing tools and environment. At the same time a study will be carried on about the generalisation of the procedure for allowing its application to larger spatial scale.The third task concerns with information retrieval of archive data with image indexing techniques. Image features commonly used to describe the image syntactical content in automatic processing (no human assistance) are color, shape, texture, brightness, angular spectrum distribution, etc. Aim of the proposed research is a comparative evaluation of these techniques on parallel architectures by MPI/Assist. It will be also tested the possibility to use the procedures usually utilized on distributed or non homogenous data-base.

Risultati attesi

Nell'ambito dell'integrazione di ciascuna delle applicazioni specificate, sono previsti almeno i seguenti outputs:- contributo al documendo di definizione dei requisiti di sistema- documento di specifiche algoritmiche- contributo al documento di disegno architetturale del sistema- test di integrazione dell'unità- report di avanzamento trimestrale- pubblicazioni scientifiche e comunicazioni a convegni

During the integration of each of specified application softwares the output foreseen are, at least, the following:- a contribtuion to the system requirements document,- an algorithmic description document,

254

- a contribtuion to the architectural design document,- a report of the integration test,- a quarterly progress report- scientific publications and symposium talks.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MILILLO GIOVANNI  

126  1.069 (552.09 KEuro) 

Integrazione su "grid" di sistemi di processamento di dati telerilevati per la realizzazione di prodotti applicativi a valore aggiunto 

     126  1.069 (552.09 KEuro) 

  

Attività 4

Durata (mesi) 36 Durata (mesi/uomo) 136 Costo totale previsto 1.078 

(556.74 KEuro) 

Descrizione

Titolo dell'attività: Integrazione sulla "grid" di processori per modellizzazioni a partire da dati di OT Responsabile di attività: Antonio GiancasproGruppi partecipanti: E-GEOS, IMA-CNR, CPS-CNR, ISI-CNR, ESA-ESRINEstensione temporale dell'attività: mesi 1-36

Nell'ambito di questa attività si intendono utilizzare, su una infrastruttura Grid esistente adattata allo specifico contesto del progetto, tre modelli di simulazione applicati su dati di OT.La griglia computazionale esistente, fornita dalle strutture EEM-A situate ad ESA-ESRIN, è formata da un cluster da 20 cpu Linux ed un server da 5 Terabytes di dati OT. La connessione verso GARR-B attualmente disponibile è di 2Mbps, ma nell’ambito del progetto “DataGrid” verra’ elevata alle massime prestazioni. EEM-A ha gia’ installato connettiva’ Gigabit da GARR ai sistemi dedicati a “DataGrid”. Inoltre esiste nell’ambito dello studio “SpaceGRID” la possibilita’ di sperimentare la connessione a risorse (cluster Linux) disponibili nella sede ESA-ESTEC in Olanda dove per la griglia e’ riservata una connessione a 34 Mbps con “Surfnet”.Una prima area di realizzazione riguarda la simulazione di disastri naturali come le frane, i terremoti e le alluvioni. In queste simulazioni, è necessario affrontare il difficile problema scientifico di predire come i sistemi territoriali rispondono al cambiamento globale. Ad esempio, la disponibilità di un buon modello di simulazione di una frana può consentire di calcolare la traiettoria dei flussi di detriti e fango in modo da aiutare gli ingegneri e i geologi a definire perimetri di sicurezza o progettare lavori di protezione. L’integrazione nella griglia di modelli di simulazione per frane con la possibilità di reperire dati morfologici e iperspettrali prima e dopo gli eventi franosi dai vari siti, presenti nella griglia, rappresenta un modo efficace per effettuare simulazioni su ampia scala ed accessibili da vari centri aventi come obiettivo il monitoraggio e la tutela del territorio.Il secondo sistema integrato nella griglia consentirà di:- ottenere previsioni meteorologiche fino a 3 giorni sull’Italia meridionale, con risoluzioni fino a 20 chilometri;- ottenere previsioni meteorologiche fino a 24 ore su aree limitate ad alta risoluzione (tra i 2 e i 5 Km);- ottenere analisi meteorologiche per il dominio spaziale, e/o sue previsioni, per qualunque intervallo temporale a partire dal 1990 a tutt’oggi;- acquisire, memorizzare ed analizzare i dati di inquinamento atmosferico rilevati dalle reti di monitoraggio della qualità dell’aria nelle varie regioni meridionali;

255

- effettuare simulazioni d’inquinamento atmosferico in presenza di scenari ipotetici o proiettati per varie scale spaziali e temporali;- ottenere previsioni di inquinamento atmosferico fino a 2 giorni e fino a una risoluzione spaziale di 3 Km.Esso si baserà sui seguenti modelli:- la versione parallela del modello di previsioni atmosferiche MM5;- la versione parallela del modello di inquinamento atmosferico per la simulazione del trasporto, diffusione e reattività chimica di inquinanti atmosferici. Come l’MM5, permette di innestare griglie ed è stato specificamente sviluppato per architetture parallele.- un modello per la stima delle emissioni di inquinanti atmosferici su tutta l’Italia meridionale. Il suo accoppiamento con il modello di qualità dell’aria permette di seguire l’evoluzione in atmosfera degli inquinanti e la loro reattività.Nell'ambito del terzo task, saranno sviluppati algoritmi paralleli portabili per l'analisi di caratteristiche di forma su DEM, rivolti sia all'individuazione di caratteristiche morfologiche locali, sia all'individuazione di regioni. Sarà inoltre considerata la possibilità di utilizzare modelli di terreno fuzzy che consentano di analizzare le caratteristiche di una regione a diversi livelli di confidenza, tenendo conto dei livelli di incertezza nell' acquisizione ed interpretazione dei dati.

Activity title: Grid integration of processing facitities based on models starting from EO dataActivity leader: Antonio GiancasproPartecipant groups: E-GEOS, IMA-CNR, ESA-ESRIN, CPS-CNR, ISI-CNR.Time span of the activity: months 1-36

This activity will foreseen the deployment, onto an existing grid infrastructure modified to the specific context of the project, three simulation models running on earth observation data.The existing grid test-bed, supplied by the EEM-A facility at the ESA-ESRIN location, consists of a cluster of 20 cpu Linux and of a 5 Terabytes EO data server. The connection to GARR-B available at the time of writing this proposal is 2Mbps. In the framework of the “DataGRID” project there is already a plan to increase the available capacity to the maximum available. EEM-A has already installed Gigabit connectivity from GARR to the systems dedicated to the “DataGRID” test bed. Furthermore in the framework of the “SpaceGRID” survey there is the possibility to test the connection to the resources (Linux cluster) available in the establishment ESA-ESTEC in The Netherlands where for the grid experiments at 34Mbps to “Surfnet” (the local GARR) has been booked.The first application area concerns with the simulation of natural disasters as landslides, earthquakes and floods. In these simulations we must face the difficult scientific problem of predicting how territorial systems respond to global change. For instance, good research models allowing to calculate the trajectories of debris/mud flows can help many engineers and geologists to establish safety perimeters, or design protection works. The integration of a parallel landslides simulation application in the computational grid infrastructure with the possibility to retrieve morphologic and hyper spectral data before and after the subject to landslides event from accessible sites on the grid represents an effective way to perform simulations on large scale and accessible to the different centres whose objective is monitoring and protection of the territory.The second system deployed onto the grid will allow:- real-time weather forecasting simulations over a three days period on Southern Italy, using horizontal resolution of 20 kilometres;- real-time weather forecasting simulations over a 24 hours period on selected areas at very high resolution (between 2 and 5 kilometres);- weather forecasting simulations over the whole spatial domain from 1990 to nowadays;- to get, archive, analyse air quality data from monitoring network at different spatial and temporal resolutions;- air quality simulations under realistic conditions or “projected” scenarios with a spatial resolution of about three kilometres;- air quality forecasting over a two days period, using horizontal resolution of 3 kilometres.It is based on the following models:- a parallel version of the MM5 weather forecasting model;- a parallel version the air quality model for simulating emission scenarios using estimated emission data from natural and anthropic sources. This model allows, like the MM5 one, to use nested grids and has been specifically developed for parallel computers.- a model for atmospheric emission estimations on southern Italy. Its coupling with the air quality model will allow to forecast the fate of atmospheric pollutants.

256

For realizing this task, portable parallel algorithms for the analysis of morphological features on digital terrain models will be developed. It will be considered the possibility of using fuzzy digital terrain models, which permit to analyse the morphological characteristics of a region at different confidence levels, keeping into account uncertainty and error both in data acquisition and interpretation.

Risultati attesi

Nell'ambito dell'integrazione di ciascuna delle applicazioni specificate, sono previsti almeno i seguenti outputs:- contributo al documendo di definizione dei requisiti di sistema- documento di specifiche algoritmiche- contributo al documento di disegno architetturale del sistema- test di integrazione dell'unità- report di avanzamento trimestrale- pubblicazioni scientifiche e comunicazioni a convegni

During the integration of each of specified application softwares the output foreseen are, at least, the following:- a contribtuion to the system requirements document,- an algorithmic description document,- a contribtuion to the architectural design document,- a report of the integration test,- a quarterly progress report- scientific publications and symposium talks.

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. LAFORENZA DOMENICO  

30  282 (145.64 KEuro) 

Integrazione sulla "grid" di processori per modellizzazioni a partire da dati di OT 

2. MURLI ALMERICO   76  514 (265.46 KEuro) 

Integrazione sulla "grid" di processori per modellizzazioni a partire da dati di OT 

3. MILILLO GIOVANNI 30  282 (145.64 KEuro) 

Adattamento ed integrazione di infrastruttura Grid per applicazioni OT. 

     136  1.078 (556.74 KEuro) 

  

257

Workpackage 12

Referente del Workpackage Cognome APOSTOLICO Nome ALBERTO Qualifica Professore Ordinario Ente di appartenenza Universita' di Padova 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 77 Costo totale previsto 913 

(471.53 KEuro) 

Descrizione

BIOINFORMATICS

I dimostratori previsti per questo settore realizzeranno la immersione in Griglia di un piccolo arsenale di strumenti di software relativi ai due domini correlati: (1) la analisi di sequenze (ricerca di geni, analisi statistiche, allineamenti e ricerca di correlazioni in sequenze); (2) la analisi e sintesi di proteine e di altri aggregati tridimensionali, con enfasi particolare sugli aspetti di visualizzazione. Entrambi i domini presentano caratteri di distributivita' ed eterogeneita' in termini di algoritmi, piattaforme ed interconnessioni relative, e configurano ipotesi di utilizzazione capillare da parte di una comunita' di fornitura ed utenza operante in ambienti diversi e con una molteplicita' di missioni. Alcuni dei problemi computazionali incontrati in questi domini rappresentano sfide per la intera tecnologia del calcolo. Tuttavia va precisato che le attivita' previste nell' ambito del presente progetto non sono indirizzate ai problemi algoritmici e computazionali che pure si incontrano numerosi nell' area, bensi' alla messa a punto di ambienti ed interfacce di griglia per realizzazioni mature in termini di software avanzato. Le attivita' di ricerca qui proposte costituiscono e sostengono la naturale propagazione all' ambito nazionale del lavoro gia' avviato dai proponenti in collaborazioni con altre sedi europee.

Le attivita' appaiono ripartite in due principali classi di applicazioni, delle quali si procedera' ad illustrare brevemente le motivazioni. 1)Il numero di sequenze genomiche disponibili e' in continua crescita. Uno dei problemi consiste nell' individuare i geni e le loro funzioni. La analisi comparativa delle sequenze si propone di confrontare sequenze che sono correlate sul piano della evoluzione, lo scopo essendo di identificarvi gli elementi funzionali e di predire la funzione di un gene. Gli strumenti esistenti sono basati su algoritmi ed euristiche per la ricerca di similarita', allineamento multiplo, analisi statistiche, ricostruzione di alberi filogenetici. Le varie strategie vengono applicate a specie diverse, conservate in banche di sequenze distanti. Il processo di aggiornamento e' incrementale, e spesso coinvolge una frazione significativa dell' intero data base e possono richiedere diversi giorni di cpu.

2)La ricerca corrente nella area della analisi di proteine e' basata sul crescente ricorso a sistemi sofisticati di immagazzinamento e reperimento di informazione strutturale. Questi sistemi comlementano le basi di dati convenzionali contenenti informazione testuale e numerica di dati biologici. La ricerca di ``motivi'' in database di strutture chimiche 3D riveste centrale importanza in Bioinformatica. Un ``motivo'' e' interpretato come una sottostruttura ricorrente o caratteristica in biomolecular aggregates. Problemi correlati alla ricerca di

258

sottostrutture sono il confronto e la classificazione di proteine e la scoperta di siti di ``binding'' per molecole interagenti. La funzione di una proteina e' fortemente correlata alla sua struttura 3D, per cui la analisi ed il confronto di strutture 3D puo' dischiudere alla comprensione dei modi in cui le proteine si comportano e funzionano.

BIOINFORMATICS

Some core activities shall concentrate on the GRID immersion of software tools pertaining to the following interrelated domains: the analysis of sequences (gene hunting, statistical analyses, sequence alignment and correlation patterns); analysis and synthesis of proteins and other three dimensional aggregates with special emphasis on aspects of visualization. Both of these domains of investigation and activity have characters of distributivity and etherogeneity in terms of algorithms, platforms and interconnections. Moreover, they often involve problems computationally imposing and configure pervasive if not ubiquitous patterns of utilization on behalf of the biological and medical communities.

The proposed activities are partitioned into two main classes of applications motivated as follows.

1) There is a huge amount of genomics sequences. One problem is to identify the genes and determine their function.. Comparative sequence analysis aims at comparing evolutionary related sequences. The first goal is to identify the functional elements in genomic sequences. The second is to predict the gene function. The existing bio-informatics tools are based on algorithms and heuristics for the similarity search, the multiple alignment, the statistical analyisis and phylogenetic tree reconstruction. The different strategies to find homologous sequences are applied to several species. They are stored in distant databases. The process to update the database is incremental. And often involves a significant fraction of the entire database and may require days of cpu time. 2) Current research in the area of protein analysis is making increasing use of sophisticated systems that allow the storage and retrieval of structural information. These systems complement the more conventional databases for textual and numerical information of biological data. Searching for motifs in databases of 3D chemical structures is of central importance in bioinformatics. A motif is interpreted as recurrent or otherwise characteristic substructure in biomolecular aggregates. Related to the above problem is the comparison and classification of 3D structures and the discovery of the binding sites of interacting molecules. The function of a protein is strongly related to its 3D structure therefore the analysis and comparison of the 3D structures can provide insight in the way proteins behave and perform their activity.

Risultati attesi

1) Il piano complessivo e' di fornire un ambiente integrato di strumenti per la analisi filogenetica ed una risorsa rapida per la analisi comparativa su larga scala. Gli strumenti coinvolti risulterebbero da una combinazione di strumenti per la ricerca rapida di similarita', programmi di ricerca in data bases, programmi di analisi statistica, allineamento multiplo e ricostruzione di alberi filogenetici. Uno dei contributi specifici all' impianto complessivo sara' costituito dalla immersione in griglia di una libreria di programmi di analisi statistica recentemente sviluppata dai proponenti, capace di operare su basi massive di sequenze e, a seguito di estensioni in corso, su interi genomi con prestazioni spazio-temporali pratiche.

2) Le applicazioni pianificate si indirizzano a dati strutturali ed alla ricerca di motivi da essi su una piattaforma di grid. In questo contesto, ci si prefigge di integrare alcuni aspetti importanti ai fine del confronto e della ricerca quali la rappresentazione 3D di dati, la visualizzazione, la organizzazione in database. Saranno costruite nuove basi di dati che integrino il Protein Data Bank e che facilitino l' analisi. Queste basi di dati avranno bisogno di frequenti aggiornamenti in risposta alla continua crescita del PDB, sicche' si pongono per esse i problemi gia' esposti in precedenza. Il contributo specifico derivera' dall'adattamento ad un ambiente di griglia di software recentemente sviluppato dai proponenti per la ricerca di motivi tridimensionali, l' individuazione di similarita' tra strutture e la classificazione di proteine. Inoltre sara' reso disponibile su griglia software sviluppato dai proponenti per la visualizzazione di strutture molecolari e dei risultati del confronto in termini di elementi di struttura secondaria.

259

1) The overall plan is to provide a fast and integrated environment for the phylogenetic analysis and for the comparative analysis at a large scale. The tools involved result from a combination of tools for fast retrieval of similarity, programs for searching in databases, multiple alignments and phylogenetic tree reconstruction. One of the main contributions of this system will be the immersion on the grid of a library of programs recently developed by the proponents, capable of operating on massive datasets of sequences and, due to ongoing research developments, on entire genoms with practical performances.

2)The applications proposed involves structural data and the search for motifs in structural databases. In this context, we plan to integrate several important aspects of protein structural comparison such as 3D data representation, matching, visualisation and database organisation. New databases will be constructed from the Protein Data Bank (PDB) to store the various protein representations that facilitate the analysis. These databases will need frequent updates as the PDB experiences a continuous growth. The issue of handling and updating theses databases taking advantage of the grid environment has already been discussed elsewhere in this proposal. We plan specifically to port on a grid some software tools recently developed by the proponents for the search of motifs and the comparison of protein structures. Furthermore, we will make available on the grid software developed by the proponents for the visualization of molecular structures and the results of the comparisons in terms of elements of secondary structures.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO   77  913 

(471.53 KEuro) Analisi di proteine su Griglie computazionali 

     77  913 (471.53 KEuro) 

  

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 77 Costo totale previsto 913 

(471.53 KEuro) 

Descrizione

NEUROINFORMATICS

L'applicazione di Neuroinformatica da portare su GRID è finalizzata a effettuare diagnostica molecolare in caso di patologie neurologiche. L'applicazione vuole verificare le potenzialità di GRID sia per quello che riguarda l'accesso a banche dati distribuite, sia per quello che riguarda le prestazioni computazionali su modelli complessi a livello genico-metabolico e cellulare.Il completamento della sequenza primaria di diversi genomi, in particolare di quello umano, ha influenzato tutti i settori della biologia, non ultimo le neuroscienze e l'interpretazione funzionale dei diversi compartimenti non puo' prescindere dall'integrazione di dati molecolari con le metodiche sperimentali tradizionali. Particolare rilevanza riveste un approccio integrato nello sviluppo di nuove metodologie diagnostiche molecolari. Nell'ultimo decennio, pur con le limitazioni legate alle tecniche sperimentali, le neuroscienze sono state uno dei settori di elezione nello studio della funzionalita' genica per quanto concerne la valutazione dei fattori di rischio genetici e ambientali delle malattie del sistema nervoso centrale.Il supporto decisionale alla diagnostica nell'era post-genomica richiede la possibilita' di usufruire simultaneamente di diverse tipi di risorse che lo sviluppo delle infrastrutture informatiche hanno reso facilmente raggiungibili. La tendenza a creare laboratori virtuali specifici per le diverse discipline biomedicali richiede la disponibilita' di un'infrastruttura informatica di capacita'

260

notevolmente superiore in quanto se per l'aspetto di analisi di sequenze i tempi richiesti ad assolvere una richiesta utente sono ancora accettabili, per la modellizzazione di pathways genici o metabolici la disponibilità di calcolo ad alte prestazioni diventa essenziale soprattutto quando i risultati devono essere sincronizzati con altri provenienti da altri tipi di analisi. Un esempio di allocazione ottima di risorse e' il consorzio EUROFAN (European Functional Analysis Network) per lo studio della funzionalita' genica del lievito. La creazione di laboratori virtuali per la valutazione farmacologica suggerisce la possibilita' di creare un laboratorio virtuale di neuroscienze che consenta diversi livelli di indagine.L’architettura del sistema proposto prevede diversi livelli distribuibili su GRID:1.Integrazione e interscambio di database di dati strutturali e funzionali necessari in fase di diagnosi convenzionale a livello di organo (RM,PET,EEG), cellulare (microscopia ottica confocale) e molecolare. Questa attività prevede la raccolta e classificazione in banche dati distribuite su GRID di mappe bi-dimensionali multi-modali quali immagini tomografiche o immagini relative a separazioni di estratti proteici e di sequenze genomiche. Saranno implementati su griglia programmi di visualizzazione,analisi e data capturing in remoto; 2.Knowledge discovery molecolare sui risultati del livello 1. Questa attività riguarda l’impiego sinergico delle informazioni multi-modali per supportare la scelta decisionale nell’indagine diagnostica; 3.Integrazione dei dati ottenuti dalla fase di data mining molecolare (diagnosi convenzionale, cellulare e molecolare) con informazioni di tipo genetico (sequenze, mRNAs); 4.Identificazione dei pathways molecolari specifici del distretto nervoso e modellizzazione degli stessi (reti geniche e reti metaboliche) mediante lo sviluppo di tecniche computazionali finalizzate al drug-design. Sara’ realizzato un modello del distretto nervoso analogamente a quanto fatto per il cuore [Bassingthwaighte JB, 1997]; 5.Simulazione di reti cellulari di neuroni mediante simulatori esistenti (es. Neuron, Synapsis, e-cell) “portati” su GRID. Questa fase serve a verificare l’effetto del difetto genico e della sua eventuale cura e verificherà le potenzialità di calcolo di GRID; 6.Impiego della stessa applicazione durante le fasi di sviluppo del sistema nervoso. Tale parte è fortemente “basic-research” oriented.

NEUROINFORMATICS

The Neuroinformatics application to be ported on GRID is aimed at performing molecular diagnosis in case of neurological pathologies (e.g., epilepsy). The application will contribute to validate the potentialities of the GRID, with particular focus on access modalities to distributed databases, and on the processing power for computations of complex models related to cells and genetic and metabolic diseases. The recent sequencing of different genomes has influenced all the sectors within the biological area (including Neuroscience). Moreover, the final interpretation of the different compartments cannot be assessed without the integration of molecular data with traditional experimental methodologies. An integrated approach to the development of new molecular diagnostic methodologies has a particular importance. In the past 10 years, even with the many limitations due to experimental techniques, Neuroscience has been one of the most important sectors in the study of the genetical functionality, especially for what it concerns genetic and environmental risk factors of the central nervous system diseases. The decisional support to diagnosis in the "post-genomic" era calls for the simultaneous availability of different types of resources recently made reachable by the progresses in ICT. The trend in setting-up virtual laboratories highly specialised for the different biomedical sectors requires a high-capacity ICT infrastructure. In fact, if for the analysis of sequences, performances are currently acceptable, to now, the processing power for modelling genetic or metabolic pathways is not yet sufficient particularly when synchronisation of results is required among a possibly large number of sites worldwide. The EUROFAN consortium (European Functional Analysis Network) that addresses the genetic studies of yeast represents a valuable of optimal resource allocation. The existence of virtual laboratories for the pharmacological evaluation, suggests the idea of developing a virtual Neuroscience laboratory capable to allow research at different levels.The architecture of the system schematically proposed should envisage different levels distributed on the GRID: 1. Interoperability and exchange of databases of structural and functional data required for traditional diagnosis at organ level (RM, PET, EEG), cell level (confocal optical microscopy), and molecular level. This activity requires bi-dimensional multi-modal maps, as tomographic images or images relative to protein extracts, to be collected and classified. Such data will be then organized and managed in data base distributed on GRID. 2. Molecular knowledge discovery on results from level 1. This activity deals with the synergic use of multi modal information in order to support the decisional choice in the diagnosis.3. Integration of data obtained from molecular data mining (conventional, cellular and molecular diagnosis) with genetic information (sequences, mRNAs). 4. Identification of molecular pathways (genetic and metabolic), focused on the nervous system. Modelling of such pathways (genetic and metabolic networks) by the development of techniques focussed on drug-design. This activity requires high computation burden and high computational performance. Then, a model of the nervous system will be developed similarly to what has already been done for the heart.

261

5. Simulation of cellular neural networks through existing simulators (e.g., Neuron, Synapsis, e-cell) "ported" on GRID. This phase will allow evaluating both the effect of genetic defects and the set-up of possible therapies. Potentiality of processing power of GRID will be evaluated as well.6. The same application will be adopted during the developing phases of the nervous system (time evolution of the genetic network). This part is heavily pertaining to basic research.

Risultati attesi

Risultati attesi relativi ai 6 livelli descritti nella attività 2 del WP 12:

1. Primo risultato di questa attività sarà la creazione di un prototipo di banca dati implementato con architettura a griglia. Un secondo risultato sarà l'implementazione su griglia di strumenti software disponibili presso i proponenti per la ricerca, quali programmi di visualizzazione e di analisi di immagini biomediche e data capturing in remoto, che consentiranno la visione, l'elaborazione delle immagini in uno stesso sistema di riferimento e lo scaricamento dei dati dalla banca dati in tempo reale. 2. Risultato di questa attività sarà un documento che descrive le informazioni ottenute dalla fase di knowledge discovery.3. Risultato di questa attività sarà un documento che descrive le informazioni ottenute grazie all'integrazione dei dati estratti dalle banche di dati genomici e proteomici. Tale risultato permetterà quindi di valutare le potenzialità della banca dati proposta su griglia.4. Risultato di questa attività sarà un documento che descrive i patways genici e metabolici identificati e le loro caratteristiche. Tale risultato permetterà la verifica dei vantaggi offerti dalla architettura su griglia. Ulteriore risultato di questa attività sarà la realizzazione di un modello del distretto nervoso. 5. Risultato di questa attività sarà un documento riportante la verifica delle potenzialità del porting su GRID di simulazioni di reti cellullari di neuroni mediante simulatori esistenti (per esempio Neuron, Synapsis, e-cell), con particolare riferimento allo studio dell'effetto del difetto genico e della sua eventuale cura.6. Risultato di questa attività sarà un documento riportante la verifica delle potenzialità dell'applicazione precedente (porting su GRID di simulatori) per lo studio delle fasi di sviluppo del sistema nervoso (evoluzione temporale della rete genica). Tale parte è ovviamente fortemente "basic-research" oriented.

Expected results for each of the six levels described in Activity 2, WP 12

1. The first result of this activity will be the creation of a prototype of data base implemented on grid architecture. A further result of this activity will be the implementation on grid of software tools available at the research centres, as integration programs but also tools for the visualization and the analysis of biomedical images. Procedures and programs of remote imaging, analysis and data capturing will be finally developed on grid, allowing on-line visual inspection and download of data sets from the data base.2. Decsription of information obtained from molecular knowledge discovery on results from level 1.3. The result of this activity will be information integrated between genomic and proteomic data base. This result will allow the potentials of the data base on grid to be assessed.4. The result of such activity, that is the identification of genic and metabolic patways, will allow the advantages offered by the grid architecture to be verified. As a further result a model of the nervous system will be developed.5. The result of this activity will be a report containing the outcomes of the evaluation of the porting of existing simulators (e.g., Neuron, Synapsis, e-cell) for the study of cellular neural networks, in particular with respect to the effect of genetic defects and the set-up of possible therapies.6. The result of this activity will be a document that reports the potentialities of the same application (porting on GRID of simulators) for the study of the of the nervous system during the developing phases (time evolution of the genetic network). This part heavily pertains to basic research.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO   77  913 

(471.53 KEuro) Neuroinformatica su GRID 

     77  913 (471.53 KEuro) 

  

262

Attività 3

Durata (mesi) 36 Durata (mesi/uomo) 77 Costo totale previsto 913 

(471.53 KEuro) 

Descrizione

GENETICS OF POPULATIONS

Partendo dalla raccolta dei dati fenotipici, genotipici ed ambientali di popolazioni isolate in alcuni paesi della Sardegna, verrà realizzato una complessa struttura informatica con l'obiettivo di sviluppare un sistema basato sull'integrazione di informazioni genomiche, metodi di analisi di linkage e metodi di predizione dei geni al fine di studiare le interrelazioni funzionali dei geni coinvolte in malattie multifattoriali statisticamente rilevanti nelle popolazioni in esame.La recente accelerazione impressa dai centri internazionali nella produzione di nuovi dati relativi al Genoma Umano in tutti i suoi aspetti, ha accentuato la necessità di identificare ed correlare in maniera il più possibile automatizza le informazioni contenute in diverse banche dati specializzate. Inoltre il crescente quantitativo d'informazioni biologiche presenti in banche dati specializzate (banca dati delle proteine, dei fattori di trascrizione, delle strutture proteiche, dalle EST, di mappaggio del genoma umano GDB, delle malattie genetiche OMIM, banche dati Oncologice, banche dati di mutazione ecc.), consentirà di migliorare il processo d'individuazione e classificazione funzionale e patologica dei geni correlati a disfunzioni dovute a malattie multifattoriali.

GENETICS OF POPULATIONS

Starting from the data of fenotypes, genotypes and environmental data of isolated populations in some of the towns in Sardinia, a complex computational infrastructure will be established with the objective of developing a system based on the integration of genomic information, of linkage analysis methods and prediction methods of genes, to study the functional interactions of genes involved in multifactoral diseases statistically relevant within the examined populations.

The recent out break of international centres producing new data of human genome has increased the need to identify and correlate, in an automated manner, the information from the existing specialized databases.Furthermore, the increasing amount of biological information present in the specialized databases (databases of proteins, transcription factors, proteic structures, from EST, mapping of the human genome GDB, genetic diseases OMIM, Oncological databases, mutation databases, etc.), will allow to improve the process of identification, and functional and pathological classification of the genes correlated to disfunctions due to multifactor diseases.

Risultati attesi

Una serie di programmi verranno implementati al fine di automatizzare i processi d'analisi, predizione ed annotazione di intere regioni di DNA. In particolare potranno essere effettuate una serie di analisi per la predizione funzionale dei geni partendo dalle regioni del genoma umano identificate mediante l'ausilio dagli alberi genealogici di popolazione in combinazione con i programmi di analisi di Linkage.

263

A supporto di questo tipo d'analisi, saranno utilizzati algoritmi per l'analisi degli alberi filogenetici, per il riconoscimento dei segnali biologici implicati nel riconoscimento dei geni e l'integrazione delle informazioni genetiche con le informazioni correlate presenti nelle banche dati più importanti utili per questo tipo d'indagine. Il sistema informatico realizzato consentirà inoltre di analizzare in forma automatizzata le sequenze contenenti il potenziale gene in esame. Molti di queste metodologie al fine di raggiungere il livello di sensibilità necessario richiedono tempi di ricerca molto gravosi dal punto di vista computazionale. Per questi motivi, il sistema informatico realizzato sarà in grado di utilizzare un'architettura computazionale adatta per il calcolo intensivo utilizzando un cluster di computer. Questa metodologia di ricerca sarà realizzata mediante l'adozione della tecnologia di griglie computazionali sviluppata nell'ambito del progetto europeo DataGrid.Per facilitare l'interpretare e la visualizzare dei risultati delle analisi svolte, sarà inoltre messo a disposizione un visualizzatore grafico in grado di facilitare la lettura delle informazioni prodotte nelle varie fasi del progetto.Data la mole di dati prodotta dalla raccolta delle informazioni genetiche, epidemiologiche, mediche ed ambientali, sarà sviluppato un database distribuito per il mantenimento e il recupero veloce dei dati. L'integrazione fra i dati originali dai database di popolazione, i database d'analisi e i database pubblici contenenti informazioni utili al progetto, fornirà la base per la ricerca di malattie genetiche multifattoriali. Al fine di automatizzare la raccolta e l'analisi dei dati prodotte nel corso del progetto dai vari laboratori sparsi sul territorio, verrà realizzata una rete accessibile remotamente in modalità protetta a tutti i collaboratori collegati in rete INTERNET.

Il sistema utilizzerà un'architettura Client-Server dove l'elaborazione dei programmi e la ricerca in banche dati specifiche sarà demandata al sistema basato sulla tecnologia di griglie computazionali il calcolo intensivo. Al Client sarà demandato solo il compito di visualizzare in modalità protetta (SSL) le applicazioni grafiche interattive, mediante l'interprete Java incorporato nelle ultime versioni dei browsers più comuni (Netscape, Explorer ecc.). Con quest'architettura, il sistema sviluppato assicurerà un elevato livello d'interoperatività fra computer collegati in rete INTRANET tra i laboratori coinvolti nella produzione e l'analisi dei dati.

A series of programs will be implemented to automate the analysis, prediction and annotation processes of entire regions of DNA. In particular a series of analysis of functional prediction of genes will be possible, starting from regions of the human genome identified by means of family trees of populations in combination with the analysis Linkage programs. In support of this type of analysis, algorithms will be used for family tree analysis, to recognize biological signals involved in the identification of genes and integration of genetic information present in the most important databases in this type of research.

The system to be implemented will also analyse automatically the content of the sequences of the potential genes under examination. Many of these methodologies have high computational requirements to obtain the results of a query. For this reason, the system realized will be capable of using a computational architecture specifically designed for intensive computing by means of a cluster of computers.

These research methods will use computational grid technologies developed throughout the European DataGRID project.To make the interpretation and reading of the queries and the results easier, a graphical interface will be implemented.Due to the amount of data produced by collecting genetic, epidemiological, medical and environmental information, a distributed data base will be developed for fast maintainance and retrieval of data. The integration of the original data from the databases of the population, from the analysis databases and the public databases containing useful data, will establish the basis of the research in multifactoral genetic diseases.During the project, to automate the input and the analysis of data produced by different laboratories on the territory, protected access verification for all the collaborators will be used on an Internet network.

The system will be based on a Client-Server architecture, and the program and the queries in specific databases will be based on computational grids for intensive computing. The Client will only have to accept to display data in protected format (SSL), while graphical interactive applications will use a Java interpreter

264

which is implemented in the latest and most common browsers (Netscape, Explorer, etc...). Thus the architecture of the developed system will provide a high level of interoperability for the users connected to an Intranet network of laboratories involved in the production and analysis of the data.

Connections to the headquarters for downloading data from remote sections that are especially isolated will be provided by satellite communications.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA DOMENICO   77  913 

(471.53 KEuro) Genetica delle popolazioni su GRID 

     77  913 (471.53 KEuro) 

  

265

Workpackage 13

Referente del Workpackage Cognome LAGANA' Nome ANTONIO Qualifica Professore Ordinario Ente di appartenenza Universita' di Perugia 

Descrizione delle attività

Attività 1

Durata (mesi) 12 Durata (mesi/uomo) 113 Costo totale previsto 916 

(473.07 KEuro) 

Descrizione

MESI 1-12La prima attivita' del WP fara' perno sulla definizione dei dettagli di alcuni appropriati casi di studio di realta' virtuale molecolare. A tal fine alcune opzioni verranno valutate alla luce sia delle competenze richieste e/o possedute dai laboratori coinvolti sia degli strumenti disponibili all'interno della griglia da predisporre. Cio' comportera' la scrittura di un inventario delle competenze necessarie, dei programmi da implementare, dell'hardware da inserire nella griglia e degli strumenti di networking disponibili.

Questo tipo di attivita' comportera' anche la selezione tra tutto il materiale inventariato di quei programmi (o gruppi di programmi) meglio utilizzabili per la costruzione di esempi realistici di realta' virtuale molecolare e che sono in uno stato tale da poter essere considerati per la condivisione. Tale attivita', infatti, implica un allineamentodei codici da condividere per il progetto per rendere le varie componenti dei programmi consistenti con gli obiettivi della applicazione su grid.

Questo e', invero, un passaggio difficile del progetto perche' richiede una definizione puntuale dei vari aspetti della descrizione molecolare del sistema considerato. In particolare, questo passo, richiede che venga posta una cura specifica nell'evidenziare le caratteristiche del software da usare per valutare le interazioni, per integrare le equazioni del moto, per mediare e integrare sulle interazioni non dirette e sui parametri non osservati. Tutte queste scelte dipendono dal livello di accuratezza desiderato e che e' intimamente connesso con il livello di complessita' della descrizionedata.

Sara' anche necessario, nell'ambito di tale attivita', adoperare scelte simili dei confronti dell'hardware disponibile al fine di identificare i computer che verranno resi disponibili al sistema grid e che ospiteranno i programmi dei casi di studio. Occorrera' procedere analogamente anche nei confronti delle risorse umane. Esse verranno assegnate a compiti diversi del WP il che comporta che dovranno essere loro assegnate le istruzioni adeguate e dovranno essere opportunamente formate.

MONTHS 1-12

266

The first activity of the WP will focus on the definition of the details of suitable molecular virtual reality case studies. To this end the different options will be evaluated with respect to the competences needed in the participating laboratories and the tools available on the computing grids to be assembled. This implies the write up of an inventory of the necessary know how, of the programs to be implemented, of the hardware to be grafted on the grid and of the available networking tools.

This type of activity will imply also the selection from the material listed in the inventory of those programs (or group of programs) that are better suited for building realistic examples of molecular virtual reality case studies and that the groups are ready to share with others. This activity implies, in fact, an alignment of the codes to be shared for the project to make the various components of the programs consistent with the goals of the grid application.

This is, indeed, a difficult step since it requires the detailed definition of the various aspects of the molecular description of the system considered. Namely, this step, requires that a specific care is put on singling out the characteristics of the software to be used for evaluating the interaction, for integrating the dynamical equations, for averaging or integrating over less direct interactions and unobserved parameters. All these choices are bound to the desired level of accuracy that intimately depends on the level of complexity of the description to be given.

It will be also necessary to act in the same way with respect to the hardware available in order to single out the computers that will be made available to the grid system and that will host the programs of the case studies. A similar action will be taken with respect to manpower. This will be assigned to the different tasks in which the WP is engaged and people will have to be instructed and formed to work for the project.

Risultati attesi

Il risultato della prima attivita' del WP consistera' in un rapporto che dara' la lista degli ingredienti necessari per costituire un metalaboratorio di calcolo su grid per la realta' virtuale molecolare. Piu' in dettaglio il rapporto dovrebbe contenere una elenco di know whow necessario, dei programmi da implementare o da progettare da nuovo, dell'hardware da collegare e degli strumenti di rete da incorporare.

Per quanto riguarda la lista del know how necessario, l'analisi delle competenze disponibili presso i laboratori che prendono parte al progettodovrebbe soddisfare le necessita' dei vari casi di studio e incanalare le competenze in scienze molecolari appropriate ad ognuno di essi. Il rapporto dovrebbe specificare in che misura le tre grandi linee di competenze (metodi di calcolo delle energie elettroniche, tecniche di calcolo della dinamica nucleare, e approcci statistici) sono trattate dai vari laboratori e a che che livello di approssimazione esse dovrebbero essere incorporate nei dimostratori finali.

Il rapporto conterra' anche la lista dei programmi (o di gruppi di essi) che sono piu' adeguati a far parte di casi di studio realistici di realta' virtuale e che i laboratori parte del progetto soo pronti a condividere su griglia. Tale lista dettagliera' i limiti di validita' dei programmi e le modifiche da introdurre in essi prima di renderli disponibili per il calcolo su griglia. Altri elementi che verranno dati in dettaglio nel rapporto sono la composizione del cluster di macchine messe in condivisione nella griglia ed. eventualmente, l'hardware da integrare per rendere la piattaforma distribuita idonea a simulazioni di realta' virtuale. Questo verra' accompagnato da una lista di strumenti di connessione in rete e di prodotti da condividere che consentano una gestione appropriata della piattaforma distribuita.

The result of the first activity of the WP will consist of a report listing a detailed inventory of the ingredients necessary to build a grid-computing metalaboratory of molecular virtual reality. More in detail the report should contain a list of the necessary know how, of the programs to be implemented or to be designed afresh, of the hardware to be clustered and of the networking tools to be incorporated.

As for the list of the necessary know how the analysis of the expertise available at the participating laboratories should be matched to the needs of the various molecular virtual reality case studies in order to channel the appropriate molecular science competences into each of them. The report will have to specify to

267

what extent three main bodies of expertise (electronic energy calculation methods, nuclear dynamics calculation techniques and statistical approaches) should be dealt by the participating laboratory and to what level of approximation they should be incorporated into the final demonstrators.

The report will contain also the list of the programs (or group of programs) that are better suited for building realistic examples of molecular virtual reality case studies and that the participating laboratories are ready to share on the grid. This list will detail the limits of validity of the programs and the modifications to be introduced in them before they are made available for grid computing. Other elements that will be detailed by the report are the composition of the cluster of machines shared on the grid and, eventually, the hardware integration needed to make the distributed platform suitable for virtual reality simulations. This wil be accompanied by a list of networking tools and shareable products allowing a proper management of the distributed platform.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. ROSI MARZIO   113  916 

(473.07 KEuro) The hardware and software inventory 

     113  916 (473.07 KEuro) 

  

Attività 2

Durata (mesi) 12 Durata (mesi/uomo) 113 Costo totale previsto 916 

(473.07 KEuro) 

Descrizione

MESI 6-18La seconda attivita' del WP si concentrera' sulla implementazione gli elementi costitutivi del lavoro di collaborazione su cui deve essere basata un azione di grid computing che abbia successo. In particolare, questa azione consistera' dapprima nella revisione delle suite di programmi usati presso i vari laboratori e dichiarati disponibili per il progetto di grid. Sara' necessario definire lo stato del software commerciale. Esso potrebbe aver bisogno di essere modificato o esteso in modo tale da richiedere una eventuale regolazione a livello di licenza. Tipi differenti di intervento saranno effettuati sul software libero o proprietario al fine di adattarlo a girare su griglia. Questi software dovrebbero poter essere implementati su computer su cui non erano mai stati implementati prima o dovrebbero poter essere testati o anche ristrutturati al fine di consentirne un uso piu' affidabile ed una gestione piu' facile.

In tutti questi casi l'attivita' del WP dovra' mirare ad effettuare due tipi di intervento. Il primo e' il consolidamento ed una estesa validazione dei codici disponibili in grid al fine di renderli robusti nelle condizioni di uso del caso di studio. Tale impegno comporta una analisi profonda dei codici al fine di verificare le condizioni di lavoro dei vari sottoprogrammi, il controllo dei dati di input, l'adeguatezza delle informazioni di debug, la chiarezza delle assunzioni fatte e le costrizioni fisiche imposte.

268

Il secondo e' l'integrazione dei programmi esistenti con i programmi di connessione da approntare e le interfacce utente. I programmi di connessione saranno utili soprattutto quando una suite di codici relativi ad una parte della applicazione computazionale complessa viene collegata ad una suite di codici relativa ad una sezione differente della applicazione. Di solito questo coinvolge laboratori differenti e richiede degli aggiustamenti di grana fine dei programmi gia' esistenti o la scrittura di nuovi programmi.

A questo scopo i moduli e i flussi di dati delle varie sezioni della applicazione su grid verranno elaborati ad un livello di granularita' appropriato. Per lo stesso motivo verra' fatto uso di appropriati linguaggi di coordinamento.

Uno sforzo simile verra' dedicato alla standardizzazione degli strumenti hardware inseriti nel grid. Il software e gli strumenti di base verranno omogeneizzati con quelli degli altri laboratori.

MONTHS 6-18The second activity of the WP will focus on implementing the basic elements of the collaborative work that a succesful grid computing implies. Namely, this will consist first on the revision of the suites of computer codes used at the various laboratories and declared available for the grid project. It will be necessary to define the status of commercial software. Such a software could need modifications or extensions that may require to be properly regulated at licence level. Different types of intervention will have to be performed on free and proprietary softwares in order to adapt them to run on a grid. These softwares may require to be implemented on machines on which they have never been implemented before or may need to be tested and sometimes reshaped to allow a more reliable use and an easier management.

In all these cases the activity of the WP will have to provide two types of intervention. The first one is the consolidation and an extended validation of the codes made available to the grid in order to make them robust under the working conditions of the case studies. Such a work implies an in depth analysis of the codes in order to verify the range of action of the various subprograms, the check on the input data, the suitability of debug information, the clarity of the assumptions made and the physical constraints imposed. The second one is the integration of the existing programs with the necessary connection programs and user interfaces. Connection programs are in particular needed when linking one suite of codes of a part of the complex computational application with another suite of codes taking care of a different section of the application. Most often this will involve different laboratories and will require a fine tuning of the existing programs in addition to the writing of new ones.

To this end moduli and data streams of the various sections of the grid-applications will be provided at the proper level of granularity. Appropriate coordination languages will be used for this purpose.

A similar effort will have to be paid for the standardization of the hardware inserted in the grid. Basic software and tools will have to be homogeneized to a significant extent with those of the other laboratories.

Risultati attesi

Il risultato della seconda attivita' del WP consistera' nell'allineamento dei programmi e nella progettazione e l'implementazione di software progettato a questo scopo. Anche questo risultato verra' discusso in dettaglio in un rapporto. L'allineamento dei programmi implica anche la revisione dei codici di calcolo attualmente in uso dei vari laboratori (e dichiarato disponibile per il progetto griglia) come pure una omogeneizzazione dellle interfacce tra programma e programma, tra programma e utente e tra utente e programma. Questo passo e' particolarmente importante quando si ha a che fare con docici per la chimica dal momento che da una parte vi sono pacchetti commerciali di grandi dimensioni spesso usati a scatola chiusa e che possono essere solo interfacciati per usi particolari mentre dall'altra vi sono moltissimi programmi realizzati nei vari laboratori scarsamente validati e di qualita' scadente. Al fine di costruire applicazioni grid si deve essere particolarmente attenti alla definizione degli specifici standard e all'uso di strutture del microlinguaggio tipico delle scienze molecolari.

269

Una ricaduta aggiuntiva di questa attivita' proverra' dalla necessita' di fare girare tali programmi su macchine su cui non avevano mai girato prima. Questo puo' mettere in evidenza particolari idiosincrasie dei programmi. La implementazione dei programmi (o di grupppi di programmi) sulla piattaforma grid stessa presenta richieste specifiche che non si presentano nei cluster locali o su macchine singole (anche se parallele). A questo scopo si fara' riferimento a procedure che consentano la validazione della applicazione risultante e rendono il programma robusto, sia pure limitatamente alle condizioni utilizzate per il caso di studio. Questo tipo di lavoro portera' ad una analisi dettagliata dei codici, ad una verifica dei sottoprogrammi, un check dei dati di input, una verifica della adeguatezza delle informazioni di debug. A questo fine i moduli e gli stream dei dati delle varie sezioni della applicazione grid vengono forniti al proprio livello di granularita'. Per questo vengono adottati appropriati linguaggi di coordinazione.

Uno specifico regime dovra' essere adottato per il software commercialeper il quale il rapporto dara' ulteriori dettagli per la modifica o l'estensione delle licenze.

The alignment of the existing programs and the design and the implementation of ad hoc designed connection software will be the result of the second activity of the WP and will be described in detail in a related report. The alignment shall imply a revision of the suites of computer codes currently in use at the various laboratories (and declared available for the grid project) as well as an homogenization of the program-to-program, program-to-user and user-to-program interfaces. This step is particularly important when dealing with chemistry codes since on one side there are huge commercial packages most often taken as black boxes that can only be properly wrapped for specific use while on the other side there are a vaste number of home-made laboratory codes having limited validations and a quality typical of dusty decks. To the end of building a grid application a particular attention will be paid to the definition of the specific standards and to the use of specific microlanguage tips of molecular sciences.

An additional fall out of this activity will result from the need of making the programs run on machines on which they have never been implemented before. This may single out peculiar idiosyncrasies of the programs. The implementation of the programs (or of the ensemble of programs) represented by the grid-platform itself exibits specific requirements absent from local clusters or single (albeit parallel) machines. To this end reference will be made to procedures for validating the resulting application and making it robust under the working conditions of the considered case studies. Such a work will result in a detailed analysis of the codes, a verification of the various subprograms, a check on the input data, a control of the suitability of debug information. To this end moduli and data streams of the various sections of the grid-applications will be provided at the proper level of granularity. Appropriate coordination languages will be used for this purpose.

A specific regime will have to be adopted for commercial software for which the report will detail modifications or extensions of licences.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. ROSI MARZIO   113  916 

(473.07 KEuro) The design of the grid cooperation model 

     113  916 (473.07 KEuro) 

  

Attività 3

Durata (mesi) 12 Durata (mesi/uomo) 142 Costo totale previsto 1.145 

(591.34 KEuro) 

270

Descrizione

MESI 19-30La terza attivita' del WP verra' mirata alla implementazione della griglia di calcolo per i casi di studio della realta' virtuale. A questo scopo verra' realizzato il collegamento in rete delle macchine del progetto. Questo comporta che il software di base del metacomputing venga installato e testato. Per testare il comportamento del sistema delle prove verranno effettuate anche facendo uso di prototipi semplici. Questa fase del lavoro coinvolgera' una forte interazione con i workpackage che hanno il compito di definire gli strumenti di networking e di implementarli.

Questa fase richiedera' anche un intenso lavoro di progettazione, di acquisizione, di implementazione e di modifica del software. In particolare, un alto livello di attivita' e' stata pianificata per la predisposizione di un monitoraggio dettagliato della applicazione e per la gestione dei dati relativi. Questa fase offrira' anche l'opportunita' di una interazione con iniziative di ricerca sia pubbliche che private. In particolare, questo vuol dire una interazione con il progetto ASI PQE2000, con alcuni dei progetti di METACHEM (Azione D23 dell'iniziativa COST per la chimica), con programmi e banche dati chimici collegati in rete, con alcune aziende private di progettazione molecolare. Verra' anche considerata la possibilita' di stimolare iniziative di spin-off.

Degli sforzi verranno anche effettuati per ottenere un ulteriore consolidamento dei codici, dei programmi di connessione e delle interfacce utente per una gestione appropriata dei dati di input, per un trasferimento sicuro dei risultati intermedi e la fissazione dei checkpoint, per una rappresentazione intuitiva dei risultati. A questo scopo verranno condotte indagini estese per lo sviluppo di rappresentazioni grafiche, interfacce utenti, ambienti di problem solving con l'obiettivo di evidenziare le caratteristiche specifiche delle rappresentazioni di realta' virtuale molecolare.

MONTHS 19-30The third activity of the WP will concentrate on the implementation of the computing grid for the virtual reality case studies. To this end the networking of the cluster of machines dedicated to the grid experiment will be implemented. This implies that basic metacomputing software tools will be installed and tested. Tests will also be carried out using simple prototypes to check the behaviour of the system. This phase of the work shall require strong interactions with the workpackages devoted to the definition of the networking tools and to their implementation.

This phase will also require an intensive work of design, acquisition, implementation and modification of software. In particular a high level of activity is planned for the construction of a detailed monitoring of the application and for the management of related data. This phase will also offer the opportunity for a strong interaction with private and public research initiatives. In particular, this will be the case for interacting with the ASI PQE2000 project, with some of the projects of Metachem (D23 COST in Chemistry Action), with networked chemistry program and data banks, with some molecular design private companies. The possibility of inducing some kind of spin-off shall be considered.

Efforts will also be paid to further consolidate the codes, connection programs and user interfaces to properly manage the input data, to safely transport intermediate results and set checkpoints, to intuitively represent the results. To this end graphical representations, user interfaces, problem solving environments will also be a subject of deep investigation to single out the particular and peculiar approaches to the representation of molecular realities.

271

Risultati attesi

Il risultato della terza attivita' del WP e' quella che piu' risentira' della interazione con le attivita' degli altri WP. Questo verra' documentato in un rappporto in cui le particolari caratteristiche della impelmentazione della griglia di calcolo per la realta' virtuale molecolare verra' descritta.

La prima fase di questa attivita' riguardera' le operazioni di collegamento in rete associate con la costruzione dell'ambiente di grid. Il che significa elencare i dettagli dei dispositivi utilizzati per costituire tale ambiente. Pero', esso significa anche elencare gli strumenti software installati e testati per attivare la piattaforma di griglia. Il rapporto dara' conto anche dei test fatti e dei prototipi usati a questo scopo.

Questa attivita' richiedera' anche fasi ulteriori che prevedono un intenso lavoro di progettazione, di acquisizione, di implementazione e di modifica del software. In particolare, verra' approntato un piano dettagliato di monitoraggio della applicazione e di controllo della gestione dei dati. Finestre per l'uso interattivo della applicazione verranno inframmezzate ai programmi e rese disponibili agli utenti. In questo campo l'impegno sara' notevole e i risultati attesi sono molti anche perche' lo scopo e' quello di creare rappresentazioni grafiche e interfacce utente all'interno di un approccio di problem solving. Ci si aspetta che alcuni di questi elementi siano in uno stadio cosi' avanzato per la fine del progetto da poter essere incorporati nei dimostratori di realta' virtuale molecolare.

A questo scopo ci si documentera' anche sulle possibilita' di interagire con iniziative di ricerca sia pubbliche che private e verranno descritti gli sforzi compiuti al fine di creare possibili spin-off

The result of the third activity of the WP is the most influenced by the interaction with the activities of the other WPs. This will be documented in a report in which the peculiarities of the implementation of the computing grid for the molecular virtual reality case studies will be described.

The first level of the activity is concerned with the networking operations performed to build the grid environment. This implies not only the listing of the details of the hardware connected in the implemented grid. This implies also the listing of the basic metacomputing software tools installed and tested to assemble the grid platform. The report will give account of the various tests carried out to this purpose and of the simple prototypes used.

This phase will also require an intensive work of design, acquisition, implementation and modification of software. In particular a detailed monitoring of the application and a control of the management of the related data will also be developed. Intermediate windows for an interactive use of the application will be opened and made available to the users. A particular effort will be produced, and significant results are expected in this area, to build graphical representations, user interfaces within a problem solving environment context. It is expected that some of these elements will be in such an advanced stage by the end of the program to be incorporated into the molecular reality demonstrators.

Possible interactions with private and public research initiatives will be documented and efforts paid to create possible spin-off shall be described.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. ROSI MARZIO   142  1.145 

(591.34 KEuro) The structuring of the computing grid 

     142  1.145 (591.34 KEuro) 

  

272

Attività 4

Durata (mesi) 18 Durata (mesi/uomo) 198 Costo totale previsto 1.603 

(827.88 KEuro) 

Descrizione

MESI 19-36Questa attivita' verra' dedicata alla costruzione di tre dimostratori di calcolo su grid nel campo della realta' virtuale molecolare. Questi dimostratori sfrutteranno le varie caratteristiche degli ambienti grid. Essi riguarderanno la simulazione di un processo chimico in fase gassosa, del comportamento di una molecola di grande dimensioni, delle proprieta' delle fasi condensate.

Il primo dimostratore riguarda un processo gassoso e si basa sull'uso di tecniche di dinamica molecolare. Piu' in dettaglio questa parte della attivita' si prefigge l'obiettivo di costruire un campo di forze accurato basato su calcoli ab initio. I calcoli ab initio della interazione verranno distribuiti tra i laboratori del WP che sono specializzati in calcoli accurati delle energie elettroniche. Il ricalcolo di tali dati usando delle forme funzionali idonee a rappresentare le interazioni verranno invece assegnate ad un unico laboratorio specializzato in questo campo. Il trattamento dinamico verra', invece, di nuovo distribuito tra i vari laboratori che possiedono i relativi strumenti di calcolo. Test di questo approccio verranno effettuati per sistemi gassosi rarefatti simulando un plasma freddo.

Il secondo dimostratore si occupera' di simulare il comportamento di un sistema a cristalli liquidi. In questo caso la formulazione completamente analitica dell'interazione e l'adozione della meccanica classica fanno di questa applicazione una applicazione ideale del calcolo su grid. Il dimostratore verra' testato simulando una transizione di fase di un sistema a cristalli liquidi.

Il terzo dimostratore avra' come oggetto la simulazione di un aggregato molecolare di grandi dimensioni con un numero di atomi tipico dei modelli di materiali e di biomolecole. In questo caso un ruolo centrale verra' assunto dal software commerciale (o freeware) per il calcolo delle energie elettroniche e la determinazione delle proprieta' dei sistemi molecolari. L'obiettivo della distribuzione del calcolo su grid e' la riduzione del tempo di elaborazione e la specializzazione del calcolo delle varie proprieta' in cui i vari laboratori hanno piu' competenze.

L'implementazione dei dimostratori servira' per valutare quale approccio e' piu' idoneo a trattare i differenti casi di realta' virtuale molecolare su griglia.

MONTHS 19-36This activity will be devoted to the construction of three demonstrators of grid calculations in the field of molecular virtual reality. These demonstrators will exploit all the features of the grid environment. They will be concerned with the simulation of a gas phase, a large molecule and a condensed phase process respectively.

The first demonstrator deals with a gas phase process and is based on the use of a molecular dynamics technique. More in detail this part of the activity will take care of costructing an accurate force field based on ab initio calculations. Ab initio calculations of the interaction will be distributed among the laboratories of the group that are specialized in carrying out accurate calculations of electronic energies. Fitting of these data to suitable functional representations of the force field type will instead be assigned to a dedicated laboratory. The dynamics treatment at both molecular and process level will be again distributed among several laboratories. A test of this approach will be carried out for a rarified gas system to simulate cold plasmas.

273

The second demonstrator shall deal with a liquid crystals distributed simulator. In this case the formulation of the interaction is analytical and the dynamics approach is of the classical type. This makes it ideal for distribution on a grid. This demonstrator will be tested for simulations of phase transitions of liquid crystals.

The third demonstrator will be concerned with a large molecular aggregate simulation in which the number of atoms is very large as typical of materials and biomolecules. In this case a central role will be played by the use of commercial or freeware packages performing electronic structure calculations and the evaluation of properties of the molecules. The goal of distributing on a grid the calculation is the reduction of computing time and the specialization of the calculations of the various properties for which different laboratories have specific expertise.

The implementation of the demonstrators will be used as a means forevaluating the approaches most suitable for dealing with different cases of molecular virtual reality on a grid.

Risultati attesi

Il risultato della quarta attivita' del WP sono tre dimostratori di realta' virtuale molecolare implementati sulla infrastruttura di griglia. Un rapporto verra' prodotto per illustrare le caratteristiche dei tre dimostratori, su come la loro struttura sia evoluta in fase di progettazione e sulle funzionalita' operanti al momento della chiusura del progetto. In esso verranno date anche le ragioni per la scelta del sistema di dimostrazione, per le difficolta' incontrate nel corso della implementazione e per i vantaggi ottenuti grazie alla implementazione su griglia. In particolare, verra' steso un resoconto dettagliato del modo con cui ogni dimostratore utilizza le caratteristiche della griglia.

L'uso di tecniche quantistiche e meccano classiche in calcoli di dinamica per sistemi gassosi rarefatti e piccole molecole verra' valutato dal dimostratore di fase gassosa. Il risultato atteso e' la simulazione di alcuni processi chimici di interesse atmosferico gia' studiati sia sperimentalmente che teoricamente sia pure su piccola scala. In queso caso, i calcoli accurati ab initio per l'interazione possono essere effettuati e un appropriato trattamento quanto meccanico puo' essere usato per il moto nucleare. Per questo motivo tale dimostratore verra' usato per valutare la difficolta' che insorgono quando si distribuiscono codici relativi a trattamenti quantistici ab initio.

L'uso di rappresentazioni analitiche semplici per formulare l'interazione molecolare e della meccanica classica per la relativa dinamica sara' valutato dal secondo dimostratore che tratta il cambio di fase di un cristallo liquido. In questo caso a causa della tipica decomponibilita' dei trattamenti usati, il dimostratore dovrebbe dare risultati eccellenti su griglia.

Il caso piu' istruttivo e' comunque il terzo dimostratore. Esso, infatti, simula aggregati molecolari di dimensioni notevoli in cui il numero degli atomi puo' variare a seconda del sistema considerato. Di conserva, il trattaemnto usato puo' variare da quantistico approssimato a misto classico-quantistico. Ne segue che ci si aspetta che tale dimostratore possa fornire un test critico in merito alla variazione dell'efficienza di un calcolo su grid in funzione della complessita' del sistema.

The result of the fourth activity of the WP are three virtual molecular reality demonstrators working on a grid infrastructure. A report will be produced on the characteristics of the demonstrators, on how their design has evolved during the course of the project and on the functionalities already implemented at the time of the conclusion of the project. Reasons will be given for the particular systems chosen for the demonstration, for the difficulties encountered during the implementation and for the advantages obtained by implementing the demonstrators on a grid. In particular, a detailed account will be given on how each demonstrator exploits the characteristics of a grid platform.

The use of quantum and classical mechanics techniques for dynamical calculations concerned with rarefied systems and small molecules will be tested by the gas phase process demonstrator. The expected result is the simulation of some atmospheric chemistry processes for which either experimental or theoretical work has been already carried out on a small scale. In this case, accurate ab initio calculations of the interaction

274

can be performed and a proper quantum treatment of the nuclear motion can also be adopted. Therefore the demonstrator will be used to test the difficulties of distributing on a grid the ab initio treatments.

The use simple analytical formulation of the interaction and the adoption of classical mechanics will be tested by the second demonstrator dealing with the simulation of a phase change for a liquid crystal system. In this case, due to the characteristic decomponibility of these treatments the demonstrator is expected to give excellent perfomances on a grid calculation.

The most instructive case will be the third demonstrator since it deals with a large molecular aggregate simulation in which the number of atoms can vary according to the particular case under investigation. The theoretical approaches can vary as well from approximate quantum to mixed quantum-classical. As a result this demonstrator can provide a critical test of the variation of the efficiency of a grid calculation as a function of the system complexity.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. ROSI MARZIO   198  1.603 

(827.88 KEuro) The molecular virtual reality demonstrators 

     198  1.603 (827.88 KEuro) 

  

275

Workpackage 14

Referente del Workpackage Cognome NAVARRA Nome ANTONIO Qualifica Dirigente di Ricerca Ente di appartenenza INGV 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 40 Costo totale previsto 566 

(292.31 KEuro) 

Descrizione

GRID INFRASTRUCTURE

L’obbiettivo principale sara’ l’implementazione di una infrastruttura di griglia per i gruppi coinvolti (Bologna, Roma, Napoli) che consenta la gestione remota di risorse di calcolo, selezione di piattaforme (secondo l’architettura, vettore/scalare, e secondo le politiche di gestione, alta/bassa priorita e a tempo dedicato); Storage (metastorage e gestione delle risorse di disco/librerie distribuite)

GRID INFRASTRUCTURE

The main objectives will be the implementation of a grid infrastructure for the research groups involved (Bologna, Roma, Napoli) to obtain the remote management of computational resources, platform selection (architecture, policy, priority) and of storage (metastorage and management of distributed storage facilities).

Risultati attesi

D14.1 (rapporto) mese 3: Rapporto sulle tecnologie esistenti per le applicazioni geofisicheD14.2 (rapporto) mese 6: Progetto architetturaleD14.3 (prototipo) mese 12, Componenti e documentazione per la prima versione di GEOGRIDD14.4 (prototipo) mese 18, Componenti e documentazione per la seconda versione di GEOGRIDD14.5 (prototipo) mese 24, Componenti e documentazione per la terza versione di GEOGRIDD14.6 (prototipo) mese 36, Componenti e documentazione per la quarta versione di GEOGRID

D14.1 (report) month 3: Report on existing technology for geophysical applications

276

D14.2 (report) month 6: Architectural designD14.3 (prototype) month 12, Components and documentation for the first release of GEOGRIDD14.4 (prototype) month 18, Components and documentation for the second release of GEOGRIDD14.5 (prototype) month 24, Components and documentation for the third release of GEOGRIDD14.6 (prototype) month 36, Components and documentation for the fourth release of GEOGRID

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. MAZZUCATO MIRCO   40  566 

(292.31 KEuro) Implementazione di una infrastruttura di griglia 

     40  566 (292.31 KEuro) 

  

Attività 2

Durata (mesi) 36 Durata (mesi/uomo) 58 Costo totale previsto 715 

(369.27 KEuro) 

Descrizione

Reti remote di sensori in Geofisica e Vulcanologia (INGV Osservatorio Vesuviano, Napoli)

E' prevista l'integrazione nella griglia della rete di rilevatori distribuiti sul territorio per il monitoraggio dei parametri sismici, di deformazione del suolo e chimico-fisici. L'integrazione sarà realizzata tramite il diretto interfacciamento delle reti di rilevatori (geofoni, rilevatori clinometrici, chimci fisici, etc..) al sistema informatico INGV-GRID, in modo da consentire il controllo dictribuito dei sistemi remoti di rilevazione e l'accesso diretto ai dati in acquisizione.

Remote network of geophysical sensors (INGV –Osservatorio Vesuviano – Napoli)

The network of geophysical sensors will be embedded in the grid. The sensors will monitor seismic parameters, ground deformation, other chemical and physical parameters, etc… The embedding will be ralized by directly interfacing the sensors (geophones, physical and chemical sensors) with the grid applications to allow the remote handling of the specific of the sensor and the direct access to the data.

Risultati attesi

D14.1 (rapporto) mese 3: Rapporto sulle tecnologie esistenti per le applicazioni geofisicheD14.2 (rapporto) mese 6: Progetto architetturaleD14.3 (prototipo) mese 12, Componenti e documentazione per la prima versione di GEOGRIDD14.4 (prototipo) mese 18, Componenti e documentazione per la seconda versione di GEOGRIDD14.5 (prototipo) mese 24, Componenti e documentazione per la terza versione di GEOGRIDD14.6 (prototipo) mese 36, Componenti e documentazione per la quarta versione di GEOGRID

277

D14.1 (report) month 3: Report on existing technology for geophysical applicationsD14.2 (report) month 6: Architectural designD14.3 (prototype) month 12, Components and documentation for the first release of GEOGRIDD14.4 (prototype) month 18, Components and documentation for the second release of GEOGRIDD14.5 (prototype) month 24, Components and documentation for the third release of GEOGRIDD14.6 (prototype) month 36, Components and documentation for the fourth release of GEOGRID

Unità di ricerca impegnate e relativi compiti nº Responsabile

scientificoMesi/uomo Costo (ML) Note

1. MAZZUCATO MIRCO  

58  715 (369.27 KEuro) 

Reti remote di sensori in Geofisica e Vulcanologia (INGV Osservatorio Vesuviano, Napoli) 

     58  715 (369.27 KEuro) 

  

278

Workpackage 15

Referente del Workpackage Cognome VANNESCHI Nome MARCO Qualifica Professore Ordinario Ente di appartenenza Universita' di Pisa 

Descrizione delle attività

Attività 1

Durata (mesi) 36 Durata (mesi/uomo) 26 Costo totale previsto 297 

(153.39 KEuro) 

Descrizione

Attivita' di coordinamento del Progetto: Prof. Vanneschi

Il WP15 è anzitutto dedicato alla gestione delle attività dell’intero progetto:- conduzione e controllo delle attività,- collaborazione e allineamento con progetti internazionali,- messa in rete dei Centri di Alta Qualificazione,- formazione,- disseminazione dei risultati. Questo compito viene affidato a due strutture di coordinamento e controllo: Comitato Guida e Comitato Esecutivo. Il Comitato Guida ha compiti di supervisione scientifica e strategica, ed è composto dal responsabile del progetto e dai responsabili delle Unità di Ricerca :- Prof. Marco Vanneschi, responsabile del progetto- Dr. Domenico Laforenza, responsabile della UR ISTI-CNR- Prof. Almerico Murli, responsabile della UR CPS-CNR- Prof. Marzio Rosi, responsabile della UR ISTM-CNR- Dr. Giovanni Milillo, responsabile della UR ASI- Prof. Giancarlo Prati, responsabile della UR CNIT- Prof. Mirco Mazzucato, responsabile della UR INFNPer garantire la collaborazione e l’allineamento con i più avanzati progetti del settore,il Comitato Guida include tre esperti internazionali che saranno designati dal CNR attraverso il coordinatore della Commissione per i Progetti FIRB sulle Tecnologie Abilitanti per la Società della Conoscenza, sentito il parere del responsabile del progetto e del Comitato Esecutivo. Il Comitato Esecutivo, al quale è assegnata la responsabilità della conduzione tecnica del progetto, è composto da responsabile del progetto e dai responsabili dei Workpackage:- Prof. Marco Vanneschi, CNR e Università di Pisa, responsabile del progetto e di WP15- Prof. Piero Castaldi, CNIT e Università di Parma, responsabile WP1- Prof. Stefano Giordano, CNIT e Università di Pisa, responsabile WP2- Prof. Mirco Mazzucato, INFN, responsabile WP2 e WP5- Prof. Maurizio Talamo, Università di Roma, responsabile WP4- Prof. Franco Turini, Università di Pisa, responsabile WP6- Prof. Giovanni Aloisio, Università di Lecce, responsabile WP7

279

- Prof. Marco Danelutto, Università di Pisa, responsabile WP8- Prof. Almerico Murli, CPS-CNR e Università di Napoli, responsabile WP9- Prof. Leopoldo Benacchio, INAF, responsabile WP10- Dr. Giovanni Milillo, ASI, responsabile WP11- Prof. Alberto Apostolico, Università di Padova, responsabile WP12- Prof. Antonio Laganà, ISTM-CNR e Università di Perugia, responsabile WP13- Prof. Antonio Navarra, INGV, responsabile WP14

Project Management: Prof. Marco Vanneschi

WP15 is dedicated to the management of the activities of the whole project:- activities management and control,- international collaboration and control of the international validity of the project,- network of High Qualification Centres,- education and training,- dissemination of results. This task is delegated to two coordination and control structures: Steering Committee and Executive Committee.Il Comitato Guida ha compiti di supervisione scientifica e strategica, ed è composto dal responsabile del progetto e dai responsabili delle Unità di Ricerca :The Steering Committee has the task of scientific and strategic management. It is composed by the responsible of the project and the responsibles of Research Units (RU):- Prof. Marco Vanneschi, responsible of the project- Dr. Domenico Laforenza, responsible of RU ISTI-CNR- Prof. Almerico Murli, responsible of RU CPS-CNR- Prof. Marzio Rosi, responsible of RU ISTM-CNR- Dr. Giovanni Milillo, responsible of RU R ASI- Prof. Giancarlo Prati, responsible of RU CNIT- Prof. Mirco Mazzucato, responsible of RU INFNIn order to grant the collaboration and control of the international validity, the Sttering Committee includes three international experts nominated by coordinator of the CNR Committee for the FIRB Projects on Enabling Technologies for the Information Society, taking into account the opinion of the project responsible and of the Steering Committee.The Executive Committee, to which the technical responsibility of the project is delegated, is composed by the responsible of the project and by the responsibles of WPs:- Prof. Marco Vanneschi, CNR and Università di Pisa, responsible of the project and of WP15- Prof. Piero Castaldi, CNIT and Università di Parma, responsible of WP1- Prof. Stefano Giordano, CNIT e Università di Pisa, responsible of WP2- Prof. Mirco Mazzucato, INFN, responsible of WP2 and WP5- Prof. Maurizio Talamo, Università di Roma, responsible of WP4- Prof. Franco Turini, Università di Pisa, responsible of WP6- Prof. Giovanni Aloisio, Università di Lecce, responsible of WP7- Prof. Marco Danelutto, Università di Pisa, responsible of WP8- Prof. Almerico Murli, CPS-CNR e Università di Napoli, responsible of WP9- Prof. Leopoldo Benacchio, INAF, responsible of WP10- Dr. Giovanni Milillo, ASI, responsible of WP11- Prof. Alberto Apostolico, Università di Padova, responsible of WP12- Prof. Antonio Laganà, ISTM-CNR e Università di Perugia, responsible of WP13- Prof. Antonio Navarra, INGV, responsible of WP14

280

Risultati attesi

CONTROLLI PERIODICI E CHECHPOINTLe attività del progetto saranno oggetto di revisione e controllo attraverso i seguenti controlli periodici:- C1: fine del primo anno- C2: metà del secondo anno- C3: fine del secondo anno- C4: fine del terzo anno.Il controllo C2 funge anche da checkpoint per l’eventuale ristrutturazione del progetto in base ai risultati conseguiti.

FORMAZIONEPer attuare il ruolo di formazione di giovani di elevato livello scientifico e tecnologico e di elevata professionalità, il progetto intende favorire la nascita e/o il potenziamento di strutture industriali e spin-off operanti in stretto contatto con i centri di eccellenza su progetti avanzati e sulle relative applicazioni. Questo compito è affidato al Comitato Guida.

MESSA IN RETE DEI CENTRI DI ALTA QUALIFICAZIONEQuesto importante compito, discusso in altre parti della proposta (sez. 1.2.b e sez. 3.1) è affidato al Comitato Esecutivo.

DISSEMINAZIONE DEI RISULTATIA cura del Comitato Guida e del Comitato Esecutivo, verranno organizzati quattro Workshop internazionali, uno alla partenza del progetto e tre alla fine di ogni anno di progetto, accompagnati dalla produzione di materiale scientifico e tecnologico di alta qualità.Verranno organizzate altre iniziative di divulgazione nei confronti di enti pubblici e privati, ed in particolare verrà curato il rapporto con industrie ad alta tecnologia e/o attive in applicazioni multidisciplinari.

COLLABORAZIONE INTERNAZIONALEQuesti Workshop, e la stessa presenza di esperti internazionali nel Comitato Guida, hanno anche l’importante compito di mantere alto il livello di collaborazione e allineamento con i migliori progetti internazionali del settore.

PERIODIC CONTROLS AND CHECKPOINT

The project activities will be reviewed and controlled through periodic controls

- C1: end of first year

- C2: middle of second year

- C3: end of second year

- C4: end of third year.

C2 is also used as a checkpoint for the possibile restructuring of the project according to the achieved results.

EDUCATION AND TRAINING

To perform the role of education and training of young people with high scientific-technological level and of high professionality, the project intends to support the sturt-up of new industrial entities (spin-off) and/or the improvement of existing ones operating strictly in contact with the excellence centers on advanced projects and relative applications.

281

NETWORKS OF HIGH QUALIFICATION CENTRES

This important task, discussed in other partes of this proposal (sect. 1.2.b and sect. 3.1) is delegated to the Executive Committee.

DISSEMINATION OF RESULTS

The Steering Committee and the Executive Committee will organize four international Workshops, the first at the project start-up and the remaining ones at the end of every year of project, accompanied by the production of high-quality scientific and technological proceedings.

Other initiatives will be organized, in particular to enhance the relationships with high-technology companies and/or companies active in multidisciplinary applications.

INTERNATIONAL COLLABORATIONS

The Workshops and the presence of international experts in the Steering Committee have also the important meaning of mantaining a high level of collaboration and control wrt the best international projects in this area.

Unità di ricerca impegnate e relativi compiti nº Responsabile scientifico Mesi/uomo Costo (ML) Note1. LAFORENZA

DOMENICO  26  297 

(153.39 KEuro) Attivita' di coordinamento del Progetto: Prof. Vanneschi 

     26  297 (153.39 KEuro) 

  

282

3.4 Elementi per la valutazione globale dell'impatto dei risultati conseguiti nel contesto scientifico nazionale ed internazionale

Il progetto produrrà i risultati, descritti nelle sezioni precedenti, nei settori della tecnologia di Grid ad alte prestazioni, ed in particolare nel middleware, negli ambienti di programmazione, nelle reti ad alta banda, e nei settori applicativi selezionati. I classici strumenti di valutazione della produttività scientifica (lavori sulle migliori conferenze e conferenze internazionali) saranno senz’altro adottati per verificare l’impatto che questi risultati avranno nel contesto nazionale e internazionale. Alla luce dell’eccellenza dei Centri che costituiscono le Unità di Ricerca, e dei risultati già da esse raggiunti nei settori oggetto della proposta, è lecito attendersi un impatto molto significativo.

Il progetto intende, però, avere un impatto maggiore e più pervasivo nei confronti della diffusione e utilizzazione delle tecnologie avanzate per piattaforme abilitanti.Un tipo di impatto cui si attribuirà molta importanza è rappresentato dal confronto dei risultati ottenuti con quelli di altre iniziative svolte in altri paesi dell’Europa (come UK e-science) e USA.A questo riguardo, si ritiene fondamentale rafforzare le collaborazioni a livello internazionale, ed in particolare a livello europeo in occasione del VI Framework (che dovrebbe incoraggiare grandemente progetti sulle tecnologie oggetto di questa proposta). Ci si aspetta che, da tali collaborazioni, emerga una maggiore presenza di prodotti scientifici e tecnologici italiani nelle realizzazioni più avanzate. Questa situazione, allo stato attuale, si verifica maggiormente nei settori applicativi della proposta; si veda ad esempio l’impatto che ASI ha nel settore spaziale (NASA-USA, CNES-FR, …), e la forte e qualificata presenza dei Centri del progetto in progetti di applicazioni di chimica computazionale, astrofisica, biologia e geofisica mediante sistemi ad alte prestazioni e Grid. E’ volontà del progetto che questa pervasività della ricerca italiana, già comprovata dal progetto DataGrid, si estenda drasticamente nei settori delle tecnologie di comunicazione e delle tecnologie software per piattaforme Grid ad alte prestazioni.

Inoltre, data l’importanza delle tecnologie e delle applicazioni studiate, ci si aspetta un forte impatto in termini di ricadute sugli utilizzatori, sia a livello nazionale che internazionale. Tutte le tecnologie studiate (middelware, strumenti e ambienti di programmazione, reti ad alta velocità) enfatizzano il raggiungimento di un buon compromesso tra efficienza e facilità di utilizzazione: ci si aspetta che questo produca un forte impatto a livello economico ed un forte avanzamento dal punto di vista della diffusone delle piattaforme abilitanti in vaste fasce di utenza. Citiamo il settore dell’utenza istituzionale (Protezione Civile, Ministero dell’Ambiente, DSTN Presidenza del Consiglio, Sanità, …) e dell’industria in un contesto produttivo caratterizzato dall’approccio delle Organizzazioni Virtuali scalabili.

Allo scopo di valutare i vari tipi di impatto sopra delineati, come detto nella descrizione del WP15 (coordinamento e gestione), il progetto costituirà un Comitato Guida includente tre esperti internazionali. Uno dei principali compiti di tale Comitato sarà valutare e indirizzare il progetto verso le scelte strategiche che producano il massimo impatto scientifico e tecnologico nel panorama internazionale.Inoltre, il Comitato Guida si occuperà di *) organizzare gruppi di lavoro o gruppi di interesse composti da utenti, pubblici e privati, allo scopo di divulgare il più possibile le tecnologie sviluppate e di verificarne requisiti, aspettative e ritorni produttivi, sociali ed economici;*) interagire, a tutti i livelli, con le strutture della Comunità Europea delegate ad occuparsi dello sviluppo delle tecnologie per Sistemi Distribuiti e Piattaforme su Larga Scala, Grid Computing, e Sistemi a Elevate Prestazioni.

This project will produce the results, described in the previous sections, in sectors of high-performance Grid technology (Middleware, programming environments, high-bandwidth networks) and in selected application areas.Of course, the classical methods to evaluate the scientific productivity (publications in the best international journals and conferences) will be adopted to verify the impact of the project results in the national and

283

international context. At the light of the excellence of the Centres constituting the Research Units, and of the already achieved results in the topics of the proposal, it is natural to expect a very significant impact.Il progetto intende, però, avere un impatto maggiore e più pervasivo nei confronti della diffusione e utilizzazione delle tecnologie avanzate per piattaforme abilitanti ICT.

However, this project aims to achieve a much better and pervading impact with respect to the diffusion and utilization of the advanced technologies for enabling ICT platforms.

A first kind of impact, considered very important, is represented by the comparison of the project results with respect to the results obtained by other projects in Europe (like e-science in UK) and USA. From this point of view, it will be fundamental to reinforce the collaborations at the international level, and in particular at the European level on the occasion of VI Framework. It is expected a greater presence of scientific and technological products in the most advanced realizations. Currently, this situation is more usual in the applicative areas of this proposal: e.g., the impact of ASI in the space sector (NASA-USA, CNES-FR, …) and the strong and qualified presence of our Centres in applicative projects in computational chemistry, astrophysics, biology and geophysics. As already demonstrated by the DataGrid initiative, this project aims at drastically increasing the national scientific productivity also in the sectors of communication and software technologies for high-performance Grid platforms.

Moreover, due to the importance if the studied technology and applications, it is expected a strong impact towards the users at the national and international level. All the technologies targeted by the project (middleware, programming tools and environments, high speed networks) stress the achievement of a good trade off between efficiency and ease of utilization. It is expected that this approach will produce a strong impact at the economic level and a string enhancement of the diffusion of enabling ICT platforms for wide sectors of users. We can mention the sector of institutional users (Civil Protection, Ministry of Environment, Health, …) and of industry in a production context characterized by the scalable Virtual Organization approach.

In order to evaluate the different kinds of impact discussed above, one of the main task of the project Steering Committee will be to address the project towards strategic choices that will produce the maximum impact at the international level In particular:*) to organize working or interest groups composed of public and private users*) to interact, at all levels, with the European Community structures delegated to the development of technologies for Large-scale Distributed Systems and Platforms, Grid Computing and High Performance Systems.

284

Parte IV "Dati riassuntivi"

4.1 Riassunto Spese delle Unità di Ricerca nº

Responsabile Scientifico(codice)

Spesa A(MLit)

Spesa B(MLit)

Spesa C(MLit)

Spesa D(MLit)

Spesa E(MLit)

Spesa F(MLit)

Spesa G(MLit)

TOTALE

1. LAFORENZA DOMENICO  

3324  (1716.70 KEuro) 

3499  (1807.08 KEuro) 

2508  (1295.27 KEuro) 

0  (0.00 KEuro) 

400  (206.58 KEuro) 

350  (180.76 KEuro) 

94  (48.55 KEuro) 

10175 (5254.95 KEuro)

2. ROSI MARZIO  

1780  (919.29 KEuro) 

1500  (774.69 KEuro) 

720  (371.85 KEuro) 

0  (0.00 KEuro) 

580  (299.55 KEuro) 

0  (0.00 KEuro) 

0  (0.00 KEuro) 

4580 (2365.37 KEuro)

3. MURLI ALMERICO

3000  (1549.37 KEuro) 

2700  (1394.43 KEuro) 

1500  (774.69 KEuro) 

0  (0.00 KEuro) 

450  (232.41 KEuro) 

900  (464.81 KEuro) 

0  (0.00 KEuro) 

8550 (4415.71 KEuro)

4. MAZZUCATO MIRCO

1767  (912.58 KEuro) 

2871  (1482.75 KEuro) 

3020  (1559.70 KEuro) 

0  (0.00 KEuro) 

0  (0.00 KEuro) 

0  (0.00 KEuro) 

0  (0.00 KEuro) 

7658 (3955.03 KEuro)

5. PRATI GIANCARLO  

3228  (1667.12 KEuro) 

2692  (1390.30 KEuro) 

1260  (650.74 KEuro) 

890  (459.65 KEuro) 

240  (123.95 KEuro) 

80  (41.32 KEuro) 

20  (10.33 KEuro) 

8410 (4343.40 KEuro)

6. MILILLO GIOVANNI

1270  (655.90 KEuro) 

1427  (736.98 KEuro) 

1109  (572.75 KEuro) 

0  (0.00 KEuro) 

30  (15.49 KEuro) 

734  (379.08 KEuro) 

0  (0.00 KEuro) 

4570 (2360.21 KEuro)

     14369 (7420.97 KEuro) 

14689 (7586.24 KEuro) 

10117 (5224.99 KEuro) 

890 (459.65 KEuro) 

1700 (877.98 KEuro) 

2064 (1065.97 KEuro) 

114 (58.88 KEuro) 

43943 (22694.67 KEuro)

Legenda Voce di spesa (DM. 199 Ric. del 08/03/01; art.6, c.6):

Spesa A: Spese di personale (*)

Spesa B: Spese generali direttamente imputabili all'attività di ricerca nella misura forfettizzata del 60% del costo del personale (compreso quello relativo ai ricercatori)

Spesa C: Spese per giovani ricercatori e ricercatori di chiara fama internazionale

Spesa D: Spese per l'acquisizione di strumentazioni, attrezzature e prodotti software, limitatamente alle quote impiegate per lo svolgimento dell'attività oggetto del progetto

Spesa E: Spese per stages e missioni all'estero di ricercatori coinvolti nel progetto

Spesa F: Costo dei servizi di consulenza e simili utilizzati per l'attività di ricerca

Spesa G: Altri costi di esercizio (ad es. costo dei materiali, delle forniture e dei prodotti analoghi) direttamente imputabili all'attività di ricerca

4.2 Costo complessivo della Proposta Progettuale risorse disponibili nº Responsabile Scientifico

(codice)RD+RA(MLit)

Risorse finanziarie richieste al MIUR(MLit)

Giovani ricercatori e ricercatori di chiara fama internazionale

Costo totale della proposta progettuale(MLit)

1. LAFORENZA DOMENICO  

3323  (1716.19 KEuro) 

4344  (2243.49 KEuro) 

2508  (1295.27 KEuro) 

10175  (5254.95 KEuro) 

2. ROSI MARZIO   1780  (919.29 KEuro) 

2080  (1074.23 KEuro) 

720  (371.85 KEuro) 

4580  (2365.37 KEuro) 

3. MURLI ALMERICO   3000  (1549.37 KEuro) 

4050  (2091.65 KEuro) 

1500  (774.69 KEuro) 

8550  (4415.71 KEuro) 

4. MAZZUCATO MIRCO   1767  (912.58 KEuro) 

2871  (1482.75 KEuro) 

3020  (1559.70 KEuro) 

7658  (3955.03 KEuro) 

285

5. PRATI GIANCARLO   2808  (1450.21 KEuro) 

4342  (2242.46 KEuro) 

1260  (650.74 KEuro) 

8410  (4343.40 KEuro) 

6. MILILLO GIOVANNI   1270  (655.90 KEuro) 

2191  (1131.56 KEuro) 

1109  (572.75 KEuro) 

4570  (2360.21 KEuro) 

     13948 (7203.54 KEuro) 

19878 (10266.13 KEuro) 

10117 (5224.99 KEuro) 

43943 (22694.67 KEuro) 

  MLitCosto complessivo della Proposta Progettuale 43943 

(22694.67 KEuro) 

Risorse complessivamente disponibili all'atto della domanda (RD) 13652 (7050.67 KEuro) 

Risorse complessivamente acquisibili (RA) 296 (152.87 KEuro) 

Risorse totali (RD+RA) 13948 (7203.54 KEuro) 

Risorse finanziarie complessive richieste al MIUR 19878 (10266.13 KEuro) 

Giovani ricercatori e ricercatori di chiara fama internazionale 10117 (5224.99 KEuro) 

4.3 Costo minimo per garantire la possibilità di verifica dei risultati

(MLit)42.188 (21788.28 KEuro) 

Si ricorda che la somma di risorse disponibili (o acquisibili) deve essere non inferiore al 30% del costo totale ammissibile del progetto, detratti i costi dei contratti triennali per giovani ricercatori e per ricercatori di chiara fama, che sono finanziati al 100%.

(per la copia da inviare per raccomandata o da consegnare all'accettazione del MIUR e per l'assenso alla diffusione via Internet delle informazioni riguardanti i progetti finanziati e la loro elaborazione necessaria alle valutazioni; legge del 31.12.96 n°675 sulla "Tutela dei dati personali")

Certifico, sotto la mia personale responsabilità, di aver ottenuto regolare autorizzazione dal rappresentante legale dell'ente di mia appartenenza, nonchè degli enti di tutte le altre Unità di Ricerca.

Firma del Coordinatore .............................

Firma del Rappresentante legale .............................  

Data 14/10/2001 11:33

286