sábado, 31 de janeiro de 2009

Santa Sé organiza Congresso Internacional sobre Galileu Galilei

Crédito imagem:florença_o globo
 
Dia 30/01/2009

Foi apresentado na Sala de Imprensa da Santa Sé o congresso internacional de estudos «O Caso de Galileu. Uma releitura histórica, filosófica e teológica», que se realizará em Florença, de 26 a 30 de maio.

O evento acadêmico será realizado dentro do Ano Internacional da Astronomia, proclamado pelas Nações Unidas em memória dos 400 anos das primeiras observações astronômicas (1609) por parte de Galileu Galilei (1564-1642).

Será organizado por Stensen, um instituto dos padres jesuítas localizado em Florença, com o fim de favorecer a pesquisa e o debate entre diversas culturas. Seu objetivo é plenamente formativo e está dirigido especialmente às gerações mais jovens.

O congresso contará com 33 expositores, entre historiadores, teólogos e cientistas; entre eles está o jesuíta e astrônomo George Coyne, ex-diretor do observatório astronômico vaticano, o professor Evandro Agazzi, professor presidente honorário da Federação Internacional de Sociedades Filosóficas (FISP), Nicola Cabibbo, físico italiano, conhecido pelos trabalhos sobre integração nuclear, Paolo Rossi, professor emérito de História da Ciência da Universidade de Estudos de Florença, entre outros.

O professor Rossi assegurou durante a apresentação do evento que este tratará de «todos os temas essenciais: a condenação da doutrina de Copérnico em 1616 e o processo a Galileu em 1633; a gêneses do caso Galilei na Itália, França e Inglaterra do século XVII; a história deste caso antes do Iluminismo e depois no século XIX (na idade do Positivismo) e por último, do século XX até os nossos dias».

O congresso, apoiado pela presidência da República Italiana, está patrocinado pela Região Toscana, e conta com o apoio da presidência do Conselho de Ministros e do Ministério para os Bens e Atividades Culturais.

Participarão 18 instituições de setores representativos da vida cultural e científica, entre elas o Conselho Pontifício para a Cultura, a Pontifícia Universidade Gregoriana, a Pontifícia Academia das Ciências e a Universidade de Florença.

Participarão 18 instituições de setores representativos da vida cultural e científica, entre elas o Pontifício Conselho para a Cultura, a Pontifícia Universidade Gregoriana, a Pontifícia Academia das Ciências e a Universidade de Florença.

A inauguração se realizará na basílica florentina da Santa Cruz (Santa Croce), onde se encontra o túmulo de Galileu e de outros importantes personagens italianos.

O evento de encerramento será realizado em 30 de maio, na Vila il Gioiello ad Arcetri, em Florença, que foi a última casa onde Galileu morou. Lá, Evandro Agazzi, Paolo Galluzzi, Paolo Prodi e Adriano Prosperi discutirão sobre Galileu na contemporaneidade, a relação com a Igreja e as perspectivas da busca bio-tecnocientífica.

Igualmente, para esta ocasião estão sendo organizados eventos cinematográficos, culturais e teatrais que serão realizados em Florença, dentro da comemoração do Ano da Astronomia.

Fonte: ZENIT - Por Carmen Elena Villa

---------------------------------------------------------------------------------------

Lucimary Vargas
Além Paraíba-MG-Brasil
-------------------------------------------------------------------------
Presidente:
Observatório Astronômico Monoceros
Estacão Meteorológica Nº083/5ºDISME-INMET
CEPESLE -Centro de Estudos e Pesquisas Sertões do Leste
AHAP-Arquivo Histórico de Além Paraíba
--------------------------------------------------------------------------
AHAP/CEPESLE/OAM
http://www.arquivohistorico-mg.com.br
http://cepesle-news.blogspot.com
http://forumcepesle.forumeiros.com
http://www.monoceros.xpg.com.br
http://astronomicando.blogspot.com/
http://arqueoastronomy.blogspot.com/
http://br.groups.yahoo.com/group/Observatorio_Monoceros/
BLOG DO ALE'ITÁLIA
http://blogdoaleitalia.blogspot.com  

 

segunda-feira, 26 de janeiro de 2009

Dia Nacional do Imigrante Italiano - Seminário de Comemoração


Seminário Comemorativo do“Dia Nacional do Imigrante Italiano”

Lei n° 11.687 de 2/06/2007


Data: 18 de fevereiro de 2009, Quarta-feira
Local: Salão Nobre da sede do Consulado Italiano
Av.Presidente Antonio Carlos, 40

Patrono: Dom Orleans e Bragança
Descendente da Imperatriz italiana Tereza Cristina e de D. Pedro II
Promotores da imigração italiana no Brasil

Programa

17:oo às 17:15 h - Recepção e inscrição
17:15 às 18:00 h - Composição da Mesa e abertura

Expositores:
Cônsul Geral da Itália
Instituto Italiano di Cultura
Ital-Rio Sociedade Italiana
Ass. Anita e Giuseppe Garibaldi

18:00 as 18:15 h - Palavras do Patrono
18:15 às 19:00 h - Aspectos da Imigração Italiana, Dr.Jose Luiz Damico
Debatedor: Prof.Theo Lobarinhas Piñero
(Prof. de História da UFF)
Moderador: Dr.Julio Vanni

19:00 às 20:00 h - Momento de Arte - Apresentação de Música instrumental
Prof. Sandrino Santoro (Violoncello)
Canto Lírico
Cantante de canções italianas

20:00 h Vino D´Onore

Organização: Antonio Vilardo
ITAL Rio, Sociedade Italiana

domingo, 25 de janeiro de 2009

Exposição: "Hans Staden - Entre as Gentes Antropófagas"

Exposição: "Hans Staden - Entre as Gentes Antropófagas"

 

 

Em comemoração aos 455 anos da cidade de São Paulo, o Memorial do Imigrante, órgão da Secretaria de Estado da Cultura, abre no próximo domingo, dia 25 de janeiro, a exposição Hans Staden - Entre as Gentes Antropófagas, organizada pelo Instituto Martius-Staden.

A mostra traz 19 painéis, livros e documentos que retratam o caminho percorrido pelo aventureiro alemão no Brasil colônia do século XVI e marca também as comemorações dos 180 anos da imigração alemã no Estado de São Paulo. Parte desta história está retratada também no livro Warhaftige Historia – Zwei Reisen nach Brasilien (História de Duas Viagens ao Brasil), de 1557. Nele, Staden narra suas experiências no Brasil com piratas, naufrágios e embates entre portugueses, franceses e Tupinambás, índios, então, canibais.

Itinerante, a exposição já esteve em cidades da Alemanha, como Wolfhagen, Korbach e Hesse e também em alguns municípios dos estados de Santa Catarina e Rio Grande do Sul.

Mais de 69 mil imigrantes alemães chegaram ao Brasil pelo Porto de Santos, entre 1878 e 1976. Parte deles passou pela Hospedaria dos Imigrantes. A colônia alemã é a quinta em número de imigrantes vindo ao Brasil naquela época, ficando atrás apenas das colônias Italiana, com 878.102 imigrantes, da Espanhola, com 395.844, da Portuguesa, com 460.929 e da Japonesa, com 189.764.

Você não deve perder a oportunidade de conhecer um pouco mais da história Brasil/Alemanha pelos olhos do aventureiro e também por meio de vasto material que o Memorial do Imigrante oferece ao visitante.

O Memorial do Imigrante é referência mundial e um dos mais antigos Museus de Imigração do mundo, com 12 anos de existência. Pela antiga Hospedaria, de 120 anos, que faz parte do complexo do Memorial, já passaram mais de 2,5 milhões de imigrantes de 65 nacionalidades. Pela internet é possível consultar o acervo de 250 mil listas de passageiros imigrantes. Acesse ao site: www.memorialdoimigrante.sp.gov.br .

SERVIÇO

Exposição: Hans Staden- Entre as Gentes Antropófagas
Abertura: 25/01, a partir das 10 h
Até 28/02 - Terreo

MEMORIAL DO IMIGRANTE

Abre de terça a domingo, das 10h às 17h, inclusive feriados.
Ingressos: R$ 4 e ½ entrada para estudantes. Grátis no último sábado do mês e para maiores de 60 e menores de 7 anos.
Passeios de Locomotiva: sábados, domingos e feriados. Ingressos: de R$ 5,00 e R$ 6,00.
Cine Vídeo Memorial do Imigrante: sessões gratuitas todos os sábados, sempre às 14 h.
Setor de Pesquisa: abre de terça a sexta-feira, das 13h às 17 e aos sábados das 10h às 12h e das 13h às 17h.
Biblioteca: abre de terça a sexta-feira, das 10h às 17h.
Caffé Bistrô do Imigrante: de terça a domingo, com refeições aos fins de semana.

Site: www.memorialdoimigrante.sp.gov.br

 

 

segunda-feira, 19 de janeiro de 2009

Curiosidades italianas - Come si chiamano gli abitanti di ogni province italiana:

 

Come si chiamano gli abitanti di ogni province Italiana:


Abruzzo

Chieti – chietino (letterario: teatino)
Áquila – aquilano
Pescara – pescarese
Teramo – teramano


Basilicata


Matera – materano
Potenza – potentino


Calabria


Vibo Valentia – vibonese
Catanzaro – catanzarese
Cosenza – cosentino
Reggio Calabria – reggino
Crotone – crotonese


Campania


Avellino – avellinese
Benevento – beneventano
Caserta – casertano
Napoli – napoletano (antiquato: napolitano)
Salerno – salernitano


Emilia Romagna


Bologna – bolognese (letterario: felsineo)
Ferrara – ferrarese
Foggia – foggiano
Forlì – forlivese
Cesena – cesenate
Modena – modenese
Parma – parmigiano
Piacenza – piacentino
Ravenna – ravennate
Reggio Emilia – reggiano
Rimini – riminese


Friuli Venezia Giulia


Gorizia – goriziano
Pordenone – pordenonese
Trieste – triestino
Udine – udinese


Lazio


Frosinone – ciociaro
Latina – latinense
Rieti – reatino
Roma – romano
Tivoli – tiburtino (antiquato: travertino)
Viterbo – viterbese


Liguria


Genova – genovese
Imperia – imperiese
La Spezia – spezzino
Savona – savonese


Lombardia


Bergamo – bergamasco
Brescia – bresciano
Como – comasco (letterario: comancino / per la provincia: comense)
Cremona – cremonese
Mantova – mantovano (letterario: mantuano)
Milano – milanese
Pavia – pavese
Sondrio – sondriese (per la provincia: sondriasco)
Varese – varesino (per la provincia: varesotto)
Lecco – lecchese
Lodi – lodigiano


Marche


Ancona – anconetano, anconitano
Ascoli Piceno – ascolano
Fermo – fermano
Macerata – maceratese
Pesaro – pesarese
Urbino – urbinate


Molise


Campobasso – campobassano
Isernia – isernino


Piemonte


Alessandria – alessandrino
Asti – astigiano
Cuneo – cuneese, cuneense
Mondovì – monregalese
Novara – novarese
Torino – torinese
Ivrea – eporediese, eporediense
Susa – segusino
Vercelli – vercellese
Biella – biellese
Verbano – verbanese
Cusio – cusiano
Ossola – ossolano
Domodossola – domese


Puglia


Bari – barese (per alimenti anche baresano)
Brindisi – brindisino
Lecce – leccese
Taranto – tarantino


Sardegna


Cagliari – cagliaritano
Nuoro – nuorese
Oristano – oristanese
Sassari – sassarese


Sicilia


Agrigento – agrigentino
Caltanissetta – nisseno
Catania – catanese
Enna – ennese
Messina – messinese
Palermo – palermitano
Ragusa – ragusano
Siracusa – siracusano
Trapani – trapanese
Pantelleria – pantesco


Toscana


Arezzo – aretino
Firenze – fiorentino
Grosseto – grossetano
Livorno – livornese
Lucca – lucchese
Viareggio – viareggino
Massa – massese
Carrara – carrarese
Pisa – pisano
Pistoia – pistoiese
Siena – senese
Prato – pratese


Trentino Alto Adige


Bolzano – bolzanino
Trento – trentino


Umbria


Perugia – perugino
Foligno – folignate
Assisi – assisiate
Città Di Castello – tifernate
Todi – tuderte
Gubbio – eugubino
Terni – ternano


Valle D'aosta


Aosta – aostano (per la provincia: valdostano)


Veneto


Belluno – bellunese
Padova – padovano (letterario: patavino)
Abano – apontino
Rovigo – rodigino (popolare: rovigotto)
Treviso – trevigiano, trevisano
Loria – loriato
Oderzo – opitergino
Venezia – veneziano (antiquato: viniziano)
Chioggia – chioggiotto
Mestre – mestrino
Spinea – spinetense
Verona – veronese
Chievo – clivense
Vicenza – vicentino


(fonte: site estudiantes/marco trevisan)
Fórum Brasil&Itália
.
_,_._,___

História e Genealogia - link valioso



Divulgamos página sem fins lucrativos - disponibilizada por alguém que não conhecemos, mas que merece todo louvor - destinada especialmente a divulgar livros e documentos antigos e raros de interesse histórico e genealógico. Em geral, livros que dificilmente podem ser localizados em bibliotecas. Originais foram fotografados com máquinas digitais e as imagens transformadas em arquivo PDF.

Cabe destacar os volumes dos "Almanaques do Exército", digitalizados pelo responsável após a descoberta de que determinada biblioteca brasileira havia descartado parte de sua coleção por falta de espaço.

O Almanaque do Ministério da Guerra (ou do Exército) é um anuário que contém dados biográficos dos militares tais como local de nascimento, data em que sentou praça, condecorações, local onde estava servindo etc. É uma fonte primária importante para pesquisas em geral, especialmente para estudos de genealogia ou de história.

Podem ser baixados e feitas buscas por meio de palavras.

Alguns almanaques já disponíveis:
Almanak do Ministerio da Guerra de 1861
Almanak do Ministerio da Guerra de 1863
Almanak do Ministerio da Guerra de 1882
Almanak do Ministerio da Guerra de 1885
Almanak do Ministerio da Guerra de 1896
Almanak do Ministerio da Guerra de 1897
Almanak do Ministerio da Guerra de 1898
Almanak do Ministerio da Guerra de 1901
Almanak do Ministerio da Guerra de 1904
Almanak do Ministerio da Guerra de 1907
Almanak do Ministerio da Guerra de 1909

Outros livros:
- Genealogia Paulistana, de Silva Leme
- Annaes do Maranhão - 1844 - Bernardo Berredo
- Almanak da Marinha de 1870
- Ordens do Dia:
contêm decisões diárias durante o período da Guerra do Paraguai (1865-1870): nomeações, transferências, comunicações diversas, julgamentos. Nomes de centenas de militares e civis são mencionados. Os volumes 1 e 2 referem-se a 1866 e 1867, de autoria do Duque de Caxias.
- Ordens do Dia - Guerra do Paraguai - Duque de Caxias - Volume 1
- Ordens do Dia - Guerra do Paraguai - Duque de Caxias - Volume 2
- Guerra do Paraguai - vol 1 - 1870 -
Livro sobre a guerra do Paraguai, publicado em 1870, que descreve, também, acontecimentos que antecederam a guerra.
- Guerra do Paraguai - vol 2 - 1870
- Guerra do Paraguai - vol 3 - 1870
- Vida de D. Nuno Alvares Pereira - Fr. Domingos Teixeyra - Lisboa - 1723
- Revolução de 1842 - Minas Gerais - José Antonio Marinho (do original de 1844)
- História do Movimento Político que no Anno de 1842 teve lugar na Provincia de Minas Geraes, escrita pelo Conego José Antonio Marinho. Acontecimentos em São João del Rei, Sabará, Queluz (Conselheiro Lafaiete), Santa Luzia etc.
- Decisões Judiciais da Justiça do Estado do Espírito Santo (1893 a 1896)
- Decisões da corte de justiça do Espírito Santo, contendo nomes das partes, cidades etc.
- Tratado de Geografia Descritiva da Provincia de Minas Geraes - 1878
- Dicionario Aristocratico
e alguns outros mais.
***************************


domingo, 18 de janeiro de 2009

O futuro da Internet III

Internet Evolution: Future of the Internet III
.
Press release for a December 2008 "survey of experts by the Pew
Internet & American Life Project that asked respondents to assess
predictions about technology and its roles in the year 2020." Includes
summary and full text of the report, which found that experts predict
the "mobile device will be the primary connection tool to the internet
... in 2020." Also includes links to previous "Future of the Internet"
and other related reports.
URL: http://www.pewinternet.org/PPF/r/270/report_display.asp

Acervo da Veja na web

Revista Veja disponibiliza todo o seu acervo na Internet


Fonte: Portal Imprensa. Data: 12/12/2008

A partir da próxima segunda-feira (15) a revista Veja, da Editora Abril,
disponibilizará todo o seu acervo na Internet. Todas as edições, desde a
primeira, em 11 de setembro de 1968, poderão ser lidas e consultadas
gratuitamente no site [www.veja.com.br/acervodigital] feito para abrigar o
acervo digital.

Com investimento de R$ 3 milhões e patrocínio do Bradesco, "a idéia é
democratizar o acesso à história recente do país e do mundo", diz Yen Wen
Shen, diretor da publicação. "Essa iniciativa coloca Veja ao lado dos
maiores acervos digitais do mundo e em condição única no Brasil."

Para maior comodidade dos leitores, o Acervo Digital segue a estrutura da
própria revista, ou seja, o usuário navega na web como se estivesse
folheando a publicação. Fácil de ser utilizado, o acervo apresenta as
edições em ordem cronológica e conta com um avançado sistema de busca
desenvolvido especialmente para Veja.

Este sistema permite cruzar informações e realizar filtros por período e
editorias. Assim, basta o internauta digitar uma palavra-chave que
automaticamente a ferramenta pesquisa em todos os textos da revista. Além
disso, o usuário também terá acesso a um conjunto de pesquisas previamente
elaborado pela redação do site, com temas da atualidade e fatos históricos
sobre o Brasil e o mundo. Será possível, ainda, navegar pelas capas,
entrevistas, reportagens e anúncios publicitários, sempre visualizando a
reprodução do material original.

Resultado de 12 meses de intenso trabalho, o projeto foi desenvolvido por
Veja em parceria com a Digital Pages, empresa responsável por estruturar a
digitalização de cada uma das mais de 2 mil edições e convertê-las em
revistas digitais. Dado o porte do projeto, uma equipe de 30 pessoas foi
montada para cuidar desde o desgrampeamento das edições impressas até a
publicação dos quase nove milhões de arquivos que compõem o acervo.

"Como os exemplares em papel não poderiam ser inutilizados pelo processo de
digitalização, o fluxo de trabalho contrapôs ciclos de uma sofisticada linha
de produção industrial com procedimentos extremamente artesanais, como o
nivelamento de página por página por meio de ferros de passar roupa antes do
escaneamento", explica Shen.

Memórias em Convivência - Um projeto fascinantes que ajuda a tentar compreender esta nova era em que vivemos

 
Um projeto fascinantes que ajuda a tentar compreender esta nova era em que vivemos

Em janeiro de 2008 a Biblioteca do Congresso americano decidiu disponibilizar 3 mil fotos históricas de seu acervo  no FLICKR um ambiente popular de  colaboração, memória e troca de fotos da web em :

http://www.flickr.com/photos/library_of_congress  


Neste final de dezembro o número de fotos da coleção da Biblioteca do Congresso americano  no flickr já é de  4 mil, com cerca de mais de 10 milhões de visitas no periodo. A BC disponibilizou agora um Relatório contando esta experiência de tornar este seu material livre em um ambiente popular de colaboração eletrônica.

É um  um projeto fascinantes que ajuda a tentar compreender esta nova era digital de interação e publicitação de uma memória cultural para uma grande audiência e de como os meios eletrônicos de comunicação e convivência humana estão se modificando. 

Agora dizemos vou entrar em um arquivo indicando a idéia de viagem e permanência no local da informação e esta possibilidade de ingresso mostra a circunstância da disponibilidade digital da memória ou da informação. Entrar em um arquivo de memória sozinho e com seus próprios passos é como trilhar um  labirinto desvendado pelo olhar compartilhado com tantos.

A colocação desta memória fotográfica no flickr gerou perto de
70 mil novas etiquetas (tags) entre os seus milhoes de visitantes e muitas destas etiquetas jamais teriam sido pensadas para a classificação das foto na Biblioteca do Congresso.

O relatório esta' em inglês e em PDF; livre para ser lido ou baixado para seu PC no endereço

http://www.loc.gov/rr/print/flickr_pilot.html   

O que as instituições podem fazer para facilitar a transição para o Acesso Aberto

 
Resumo

Leo Waaijers recommends (1) that authors should retain copyright, (2) that institutions should use metrics richer than just the journal impact factor to assess their researchers, and (3) and that "supra-institutional organisations" (such as the European University Association) should "take the necessary initiative" for "[s]witching to Open Access" [OA] from the "traditional subscription model."
    It is good for authors to retain copyright whenever they can, but
it is not necessary -- and hence gratuitously raises the bar -- if stipulated as a precondition for providing or mandating OA: The only thing necessary for providing or mandating OA is that authors should deposit in their Institutional Repositories (IRs) (and that their institutions and funders should mandate that they deposit) the final drafts of their peer-reviewed journal articles, which 63% of journals already formally endorse making OA immediately upon acceptance. (The remaining 37% can be provisionally deposited in Closed Access, likewise immediately upon acceptance, with the IR's semi-automatic "email eprint request" button tiding over all user needs during any publisher embargo, during which the author can also try to negotiate copyright retention with the publisher, if he wishes. But on no account should copyright retention be required as a precondition, either for depositing or for adopting an institutional mandate to deposit.)
    It is good to use richer metrics, but these will not generate OA; rather, OA will generate richer metrics.
    Institutions can mandate deposit in IRs, and deposits can be made OA, but this is Green OA self-archiving of articles published in "traditional subscription model" journals; it is not Gold OA journal publishing. Institutions and funders cannot mandate that publishers switch to Gold OA publishing, nor should they try to mandate that authors switch to Gold OA journals just for the sake of providing OA, since OA can already be provided by mandating Green OA self-archiving, without constraining authors' choice of journal.


In Ariadne 57, October 2008, Leo Waaijers has written an article on "What Institutions Can Do to Ease Open Access."

Since Open Access (OA) itself needs no "easing," I assume that what Leo meant was something more like: "What Institutions Can Do to Facilitate a Transition to Open Access."

In his article, Leo made three recommendations, which I discuss in an exchange below:

On 1-Dec-08 Leo Waaijers wrote in SPARC-OAForum:
LW:
Dear Stevan,

Most authors do not self-archive their publications spontaneously. So they must be mandated. But, apart from a few, the mandators do not mandate the authors. In a world according to you they themselves must be supermandated. And so on. This approach only works if somewhere in the mandating hierarchy there is an enlightened echelon that is able and willing to start the mandating cascade.
Leo, you are quite right that in order to induce authors to provide Green OA, their institutions and funders must be induced to mandate that they provide Green OA, as far too few authors will otherwise do the few requisite keystrokes. Authors can be mandated by their institutions and funders to do the keystrokes, but institutions and funders cannot be mandated to mandate (except possibly by their governments and tax-payers) -- so how to persuade them to mandate the keystrokes?

The means that I (and others) have been using to persuade institutions and funders to mandate that their authors provide OA have been these:

(1) Benefits of Providing OA: Gather empirical evidence to demonstrate the benefits of OA to the author, institution, and funder, as well as to research progress and to tax-paying society (increased accessibility, downloads, uptake, citations, hence increased research impact, productivity, and progress, increased visibility and showcasing for institutions, richer and more valid research performance evaluation for research assessors, enhanced and more visible metrics of research impact -- and its rewards -- for authors, etc.).

(2) Means of Providing OA: Provide free software for making deposit quick, easy, reliable, functional, and cheap, for authors as well as their institutions. Provide OA metrics to monitor, measure and reward OA and OA-generated research impact.

(3) Evidence that Mandating (and Only Mandating) Works: Gather empirical data to demonstrate that (a) the vast majority of authors (> 80%) say, when surveyed, that they would deposit willingly if it were mandated by their institutions and/or funders, but that they will not deposit if it is not mandated (< 15%) (Alma Swan's surveys); and that (b) most authors (> 80%) actually do what they said in surveys they would do (deposit if it is mandated [> 80%] and not deposit if it is not mandated [< 15%] even if they are given incentives and assistance [< 30%] (Arthur Sale's Studies).

(4) Information about OA: Information and evidence about the means and the benefits of providing OA has to be widely and relentlessly provided, in conferences, publications, emails, discussion lists, and blogs. At the same time, misunderstanding and misinformation have to be unflaggingly corrected (over and over and over!)

There are already 58 institutional and funder Green OA mandates adopted and at least 11 proposed and under consideration. So these efforts are not entirely falling on deaf ears (although I agree that 58 out of perhaps 10,000 research institutions [plus funders] worldwide -- or even the top 4000 -- is still a sign of some hearing impairment! But the signs are that audition is improving...)
LW:
To create such a cascade one needs water (i.e. arguments) and a steep rocky slope (i.e. good conditions). The pro OA arguments do not seem to be the problem. In all my discussions over the last decade authors, managers and librarians alike agreed that the future should be OA also thanks to you, our driving OA archivangelist.
But alas it is not agreement that we need, but mandates (and keystrokes)! And now -- not in some indeterminate future.
LW:
So, it must be the conditions that are lacking. This awareness brought me to the writing of an article about these failing conditions. Only if we are able to create better conditions mandates will emerge and be successful on a broad scale. A fortiori, this will make mandates superfluous.
I am one of the many admirers of your splendid efforts and successes in the Netherlands, with SURF/DARE, "Cream of Science," and much else.

But I am afraid I don't see how the three recommendations made in the Ariadne article will make mandates emerge (nor how they make mandates superfluous). On the contrary, I see the challenge of making the three recommendations prevail to be far, far greater than the challenge of getting Green OA self-archiving mandates to be adopted. Let me explain:
LW Recommendation 1: Transferring the copyright in a publication has become a relic of the past; nowadays a "licence to publish" is sufficient. The author retains the copyrights. Institutions should make the use of such a licence part of their institutional policy.
Persuading authors to retain copyright is a far bigger task than just persuading them to deposit (keystrokes): It makes them worry about what happens if their publisher does not agree to copyright retention, and then their article fails to be published in their journal of choice.

Doing the c. 6-minutes-worth of keystrokes that it takes to deposit an article -- even if authors can't be bothered to do those keystrokes until/unless it is mandated -- is at least a sure thing, and that's the end of it.

In contrast, it is not at all clear how long copyright retention negotiations will take in each case, nor whether they will succeed in each case.

Moreover, just as most authors are not doing the deposit keystrokes spontaneously, but only if mandated, they are not doing the copyright retention negotiations either: Do you really think it would be easier to mandate doing copyright retention than to mandate a few keystrokes?

(Harvard has adopted a kind of a copyright-retention mandate, though it has an opt-out, so it is not clear whether it is quite a mandate -- nor is it clear how well it will succeed, either in terms of compliance or in terms of negotiation [nor whether it is even thinkable for universities with authors that have less clout with their publishers than Harvard's]. But there is a simple way to have the best of both worlds by upgrading the Harvard copyright-retention mandate with opt-out into a deposit mandate without opt-out that is certain to succeed, and generalizable to all universities -- the Harvards as well as the Have-Nots. To instead require successful copyright renegotiation as a precondition for providing OA and for mandating OA, however, would be needlessly and arbitrarily to raise the bar far higher than it need be -- and already is -- for persuading institutions and funders to mandate deposit at all: "Upgrade Harvard's Opt-Out Copyright Retention Mandate: Add a No-Opt-Out Deposit Clause.")
LW Recommendation 2: The classic impact factor for a journal is not a good yardstick for the prestige of an author. Modern digital technology makes it possible to tailor the measurement system to the author. Institutions should, when assessing scientists and scholars, switch to this type of measurement and should also promote its further development.
This is certainly true, but how does using these potential new impact metrics generate OA or OA mandates, or make OA mandates superfluous? On the contrary, it is OA (and whatever successfully generates OA) that will generate these new metrics (which will, among other things, in turn serve to increase research impact, as well as making it more readily measurable and rewardable)!
Brody, T., Carr, L., Gingras, Y., Hajjem, C., Harnad, S. and Swan, A. (2007) Incentivizing the Open Access Research Web: Publication-Archiving, Data-Archiving and Scientometrics. CTWatch Quarterly 3(3).

Harnad, S. (2007) Open Access Scientometrics and the UK Research Assessment Exercise. In Proceedings of 11th Annual Meeting of the International Society for Scientometrics and Informetrics 11(1), pp. 27-33, Madrid, Spain. Torres-Salinas, D. and Moed, H. F., Eds. h

Harnad, S. (2008) Validating Research Performance Metrics Against Peer Rankings. Ethics in Science and Environmental Politics 8 (11) doi:10.3354/esep00088 The Use And Misuse Of Bibliometric Indices In Evaluating Scholarly Performance

Shadbolt, N., Brody, T., Carr, L. and Harnad, S. (2006) The Open Research Web: A Preview of the Optimal and the Inevitable, in Jacobs, N., Eds. Open Access: Key Strategic, Technical and Economic Aspects. Chandos.
LW Recommendation 3: The traditional subscription model for circulating publications is needlessly complex and expensive. Switching to Open Access, however, requires co-ordination that goes beyond the level of individual institutions. Supra-institutional organisations, for example the European University Association, should take the necessary initiative.
The European University Association has already taken the initiative to recommend that its 791 member universities in 46 countries should all mandate Green OA self-archiving! Now the individual universities need to be persuaded to follow that recommendation. The European Heads of Research Councils have made the same recommendation to their member research councils. (I am optimistic, because, for example, 6 of the 7 RCUK research funding councils have so far already followed the very first of these recommendations to mandate -- from the UK Parliamentary Select Committee on Science and Technology.) And the 28 universities that have already adopted Green OA self-archiving mandates show that institutional mandates are at last gathering momentum too.

But if it is already considerably harder to mandate author copyright-retention than it is to mandate author self-archiving in their institutional repositories (Green OA), it is surely yet another order of magnitude harder to mandate "Switching to Open Access" from the "traditional subscription model":

If authors are likely to resist having to renegotiate copyright with their journal of choice at the risk of not getting published in their journal of choice, just in order to provide OA, they are even more likely to resist having to publish in a Gold OA journal instead of in their journal of choice, just in order to provide OA -- especially as they need do neither: They need merely self-archive.

And journal publishers are likely to resist anyone trying to dictate their economic model to them. (Moreover, publishers' economic policies are beyond the bounds of what is within the university community's mandate to mandate!)

So mandating Green OA is still the fastest, surest, and simplest way to reach universal OA. Let us hope that the "enlightened echelon" of the institutional hierarchy will now set in motion the long overdue "mandating cascade."

Best wishes,

Stevan Harnad
American Scientist Open Access Forum

sexta-feira, 16 de janeiro de 2009

Eventos 2009: 13th European Conference on Digital Libraries - Greece

ECDL 2009
http://www.ecdl2009.eu/

The Laboratory on Digital Libraries and Electronic Publishing,
Department of Archives and Library Sciences, Ionian University kindly
invites you to participate to the 13th European Conference on Digital
Libraries, which will be held in the beautiful island of Corfu, Greece
from September 27 to October 2, 2009.

The general theme of the conference is "Digital Societies". Find more
about the theme in the Call for Contributions webpage:
http://www.ionio.gr/conferences/ecdl2009/call.php

Eventos 2009: 5º Encontro de Bibliotecas Biomédicas do Rio de Janeiro

5º Encontro de Bibliotecas Biomédicas do Rio de Janeiro
De 24/8/2009 à 28/8/2009

Agência FAPESP – O 5º Encontro de Bibliotecas Biomédicas do Rio de
Janeiro (Enbib) será realizado entre 24 e 28 de agosto de 2009 na
capital fluminense. O prazo de inscrição para apresentação de trabalhos
vai até 30 de janeiro.

O tema do evento promovido pela Associação de Profissionais de
Informação em Ciências da Saúde do Rio de Janeiro (Apcis-RJ) é "Mediação
entre produção e uso da informação: redimensionando saberes e fazeres
bibliotecários na área de saúde".

O evento tratará também dos seguintes subtemas: "Interação
informação-usuário", "Organização, tratamento e recuperação da
informação em saúde", "Serviços on-line interativos", "Desenvolvimento
do profissional de informação" e "Bibliotecas digitais e virtuais".

Mais informações: http://apcisrj.org/5enbib/

Eventos 2009: CALIBER "E-Content Management: Challenges and Strategies"

CALIBER (Convention on Automation of Libraries in Education and Research
Institutions) is an annual convention, organised by INFLIBNET Centre in
collaboration with different universities. CALIBER 2009 is 16th CALIBER
in the series and 7th International CALIBER which will be held in
collaboration with Pondicherry University during 25-27 Feb 2009 in
Pondicherry, India.

CONVENTION HIGHLIGHTS

CALIBER 2009 offers a unique opportunity to information professionals
and knowledge managers to expand their horizons and extend professional
expertise. It is a focused event that addresses latest trends on an
important theme and sub themes. CALIBER brings together practitioners
and academicians in the field of library and information science and
computer science from across the world. Leading experts, IT gurus, and
vendors from around the globe participate in the event. CALIBER has
proved to be a forum for renowned and trend-setting speakers to
stimulate strategic discussions among librarians, information
specialists, publishers from all over the country and beyond.

The theme of CALIBER-2009 is "E-Content Management: Challenges and
Strategies". Effective and efficient content management is bloodline of
a scientific and technical organisation. It enables ease of use,
interactive communication and effective delivery of content. The
conference would provide opportunities to information professionals to
deliberate on content management software, tools, technology, and
strategies, standards and protocol, Web 2.0 and E-publishing. The
tutorials by well-known experts will equip information professionals
with the necessary skills to become active players in content management
projects. With experienced speakers drawn from different programmes and
major initiatives, CALIBER- 2009 promises to be an important event
essential for everyone with special interest in content management.

CALIBER 2009: CALL FOR PAPERS
Authors are invited to submit original and unpublished papers,
nominating a theme-related track or designating the paper. read more »

CONTACT INFO. :
CALIBER 2009 Secretariat

CONVENER
Mr Prem Chand
Scientist D (Library Science)
INFLIBNET Centre, Ahmedabad- 380009, India
Phone: +91-79-26304695/8528/5971/0002
Email: premchand@inflibnet.ac.in

CO CONVENER
Mr Ashok Kumar Rai
Scientist D (Computer Science)
INFLIBNET Centre, Ahmedabad- 380009, India
Phone: +91-79-26304695/8528/5971/0002
Email: ashok@inflibnet.ac.in

ORGANISING SECRETARY

Dr. R. Samyuktha
University Librarian,
Pondicherry University,
Puducherry - 605 014
India
Phone: (O)+91-0413-2665213, Fax: +91-0413-2655254 Mob: 09442100028
Email: samravi007@yahoo.co.in

IMPORTANT DATES:
Receipt of full papers January 20, 2009
Last date for Registration February 15, 2009

Eventos 2009: The International Conference on Management of Emergent Digital EcoSystems

The International ACM Conference on Management of Emergent Digital
EcoSystems (MEDES 2009)

Technically sponsored by both ACM SIGAPP and ACM SIGAPP.fr Chapter
http://sigappfr.acm.org/medes
October 27-30, 2009
Lyon - France

Description and Objectives
---------------------------
In the world of the Internet, the rapid growth and exponential use of
digital medias leads to the emergence of virtual environments namely
digital ecosystems composed of multiple and independent entities such as
individuals, organizations, services, software and applications sharing
one or several missions and focusing on the interactions and
inter-relationships among them. The digital ecosystem exhibits
self-organizing environments, thanks to the
re-combination and evolution of its ?digital components?, in which
resources provided by each entity are properly conserved, managed and
used. The underlying resources mainly comprehend data management,
innovative services, computational intelligence and self-organizing
platforms. Due to the multi-disciplinary nature of digital ecosystems
and their characteristics, they are highly complex to study and design.
This also leads to a poor understanding as to how managing resources
will empower digital ecosystems to be innovative and value-creating. The
application of Information Technologies has the potential to enable the
understanding of how entities request resources and ultimately interact
to create benefits and added-values, impacting business practices and
knowledge. These technologies can be improved through novel techniques,
models and methodologies for fields such as data management, web
technologies, networking, security, human-computer interactions,
artificial intelligence, e-services and self-organizing systems to
support the establishment of digital ecosystems and manage their resources.

The International Conference on Management of Emergent Digital
EcoSystems (EDES) aims to develop and bring together a diverse community
from academia, research laboratories and industry interested in
exploring the manifold challenges and issues related to resource
management of Digital Ecosystems and how current approaches and
technologies can be
evolved and adapted to this end. The conference seeks related original
research papers, industrial papers and proposals for demonstrations, and
tutorials and workshops.

Topics
-------
We solicit original research and technical papers not published
elsewhere. The papers can be theoretical, practical and application
oriented on the following themes (but not limited to):

- Digital Ecosystem Infrastructure
- Web Technologies
- Social Networks
- Data & Knowledge Management Systems
- Multimedia Information Retrieval
- Ontology Management
- Services systems and Engineering
- E-Services , E-Learning, E-Humanities and E-Government
- Emergent Intelligence
- Game Theory
- Networks and Protocols
- Security & Privacy
- Standardization and Extensible Languages
- Human-Computer Interaction
- Business Intelligence
- B2B, B2C, B2A, E-Commerce, E-Business, E-Marketing and E-Procurement
- Digital Library

Paper Submission
----------------
Submissions must be in an electronic form as PDF format and should be
uploaded using the conference website.
Submissions should be at most 8 ACM single-space printed pages. Papers
that fail to comply with length limit will be rejected. Submissions will
be peer-reviewed by at least 3 peer reviewers. Selection criteria will
include: relevance, significance, impact, originality, technical
soundness, and quality of presentation.
Preference will be given to submissions that take strong or challenging
positions on important emergent topics related to Digital Ecosystems. At
least one author should attend the conference to present the paper.
The conference Proceedings will be published by ACM and indexed by the
ACM Digital Library.

Important Dates
----------------
- Submission of papers to be mentored: April 1st, 2009
- Proposal for Workshops and Tutorials: April 1st, 2009
- Notification of Workshop & Tutorial Acceptance: May 1st , 2009
- Full Paper submission: June 15, 2009
- Notification of Paper Acceptance: September 5, 2009
- Camera Ready Papers Due and Registration: September 15, 2009
- Conference Dates: October 27-30, 2009

Special issues and Journal Publication
---------------------------------------
Extended versions of the selected papers will be published in one of the
following reviewed journals.
- International Journal on Subject-Centric Computing (IJSCC)
- Journal of Organizational and Collective Intelligence (IJOCI)

Committees
-----------
Program Chairs:
Epaminondas Kapetanios (University of Westminster, UK)
Agma Traina (University of Sao Paulo, Brazil)

Workshops Chair:
Yinghua Ma (University of Jiaotong, China)

Local Organizing Committee Chairs:
Nicolas Lumineau (INSA - Lyon, France)
Cécile Favre (University of Lyon2, France)

International Program Committee:
(see the web site for the full list) http://sigappfr.acm.org/MEDES/09/

Eventos 2009: WI-IAT'09

Call for Workshop Proposals

2009 IEEE/WIC/ACM International Joint Conference on
Web Intelligence and Intelligent Agent Technology
(WI-IAT'09)

Milano, Italy, September 15-18, 2009

http://www.wi-iat09.disco.unimib.it/WI09/WIhome.htm
http://www.wi-iat09.disco.unimib.it/IAT09/IAThome.htm

*******************************************************************
Workshop Proposals Due: ** January 15 **, 2009

All papers accepted for workshops will be included in the Workshop
Proceedings published by the IEEE Computer Society Press,
which are indexed by EI.
===================================================================

The Program Committees of the 2009 IEEE/WIC/ACM International Joint
Conference on Web Intelligence and Intelligent Agent Technology
(WI-IAT'09) invite proposals for Workshops. The Workshops will be held
within the Conference, September 15-18, 2009 at Milano, Italy.

The main goal of the WI-IAT'09 workshops is to stimulate and
facilitate active exchange, interaction and comparison of approaches,
methods and ideas related to specific topics, both theoretical and
applied, in the general areas related to Web Intelligence and
Intelligent Agent Technology. The workshops will provide an informal
setting where participants will have the opportunity to discuss
specific technical topics in an atmosphere that fosters the active
exchange of ideas.

The workshop organizers will be responsible for advertising the
workshop, forming the program committees, reviewing and selecting the
papers, and guaranteeing a high quality worthy of the prestige and
range of the Conference. All papers accepted for workshops will be
included in the Workshop Proceedings, which are expected to be
published by IEEE Computer Society Press and will be available at the
workshops.

The workshop organizers will also have the discretion of editing
selected papers (after their expansion and revision) into books or
special journal issues. Workshops may be full-day or half-day. A
full-day workshop should select 10-14 regular papers, while a half-day
workshop should select 5-7 regular papers, from a large number of
submissions. Submissions accepted as workshop papers will be
allocated 4 pages in the proceedings. The workshop organizers should
ensure the presence of authors of accepted papers at the workshops.
Optionally, the workshop may be started or concluded by a panel
focusing on interesting aspects, controversial issues, or unsolved
problems to stimulate lively, thoughtful, and thought-provoking
debate; we expect the workshop organizers to actively engage the
audience and help them gain a deeper understanding of the issues. The
goal of a panel is to debate and thus panels should always reflect
more than one point of view.

*** Workshop Topics

Each workshop subject will focus on new research challenges and
initiatives in Web Intelligence (WI) and Intelligent Agent Technology
(IAT). The workshops should provide an informal and vibrant forum for
researchers and industry practitioners to share their research results
and practical development experiences in these two fields. Suggested
workshop topics include, but are not limited to:

- Web Intelligence, Brain Informatics and Cognition-inspired Computing
- Intelligent e-Technology (including e-Science, e-Business, e-Learning,
e-Finance, e-Government, e-Community)
- Intelligent Web Interaction
- Knowledge Grids and Grid Intelligence
- Semantics and Ontology Engineering
- Social Networks and Social Intelligence
- Web Agents
- Web Information Filtering and Retrieval
- Web Mining and Farming
- Web Monitoring and Change
- Web Personalization and Recommendations
- Web Scale Reasoning
- Web Security, Integrity, Privacy and Trust
- Web Services and Grid Services
- Web Support Systems
- World Wide Wisdom Web (W4)
- Intelligent Web Querying
- Agent Systems Modeling and Methodology
- Autonomous Knowledge and Information Agents
- Autonomous Auctions and Negotiation
- Autonomy-Oriented Computing (AOC)
- Learning and Self-Adapting Agents
- Agents and Data Mining Interaction
- Multiagent Systems in e-Business

*** Workshop Proposal Submission

Workshop proposals should include the following elements:

- Title of the workshop
- The organizers name, affiliation, mailing address and e-mail address
- A description of the topic of the workshop (not exceeding 200 words)
- Type of the workshop (full-day or half-day)
- A description of how the workshop will contribute to the field of
Web Intelligence and/or Intelligent Agent Technology
- A short description on how the workshop will be advertised so as to
ensure a sufficiently wide range of authors and high quality papers
- Optionally, only for full-day workshops, the title of a proposed panel,
with a brief description highlighting the reasons of interest of the
issues to be debated

After the acceptance of a workshop proposal the organizer(s) should:

- Create a Call for papers/participation for the workshop
- Create a Web page for the workshop, the link of which will be published
on the Conference Web site
- Create a Board of Reviewers (Program Committee)
- Review and select papers
- Schedule the workshop activities.

Those papers selected by a workshop organizer will also be reviewed by
the Workshop Co-Chairs for final acceptance.

All submitted papers will be reviewed on the basis of technical quality,
relevance, significance, and clarity.

We will provide an online paper submission and review system to support
the workshops.

*** Important Dates

- Workshop proposal submission due: January 15, 2009
- Notification to workshop proposers: January 25, 2009
- Each Workshop Organizer Sends out Call for Workshops
Papers: February 5, 2009
- Due date for full workshop papers submission (4 pages): April 30, 2009
- Final acceptance by Workshop Co-Chairs: June 10, 2009
- Notification of paper acceptance to authors: June 8, 2009
- Camera-ready of accepted papers: June 30, 2009
- Workshop day: September 15, 2009

*** Workshop proposal submissions

The above described workshop proposals must be submitted via e-mail
(workshops.wi.iat@gmail.com).

We look forward to your support in making 2009 IEEE/WIC/ACM WI-IAT'09
workshops an exciting event.

*** Workshop Co-Chairs:

- Paolo Boldi, DSI, Universita' degli Studi di Milano (boldi [at>
dsi.unimi.it)
- Giuseppe Vizzari, DISCO, Universita' degli Studi di Milano Bicocca
(vizzari [at> disco.unimib.it)

Eventos 2009: 2nd Workshop on Legal Informatics and Legal Information Technology

2nd Workshop on Legal Informatics and Legal Information Technology (LIT
2009) in conjunction with12th International Conference on Business
Information Systems (BIS2009)
Poznan, Poland
April 27 or 28, 2009
http://bis.kie.ae.poznan.pl/12th_bis/wscfp.php?i=82&ws=lit2009

============================================================
Deadline for submissions: February 1, 2009
============================================================


The Legal Informatics and Legal Information Technology workshop weld
as part of the 12th International Conference on Business Information
Systems. The BIS Conference is held annually and is a leading world
conference in the area of Business Information Systems. Submissions are
rigorously refereed. Accepted papers are published in the Springer's
Lecture Notes in Business Information Processing Series.
After a long hiatus, the domain of Law and Information Technology is
finally receiving much attention, not only from researchers, but also
from practitioners. Hence there is a need for forums that discuss new
research and innovative applications in Law and Information Technology.
The workshop is receptive to all papers dealing with any topic in
the interdisciplinary domain of Law and Information Technology.


TOPICS OF INTEREST

* Automated semantic indexing, information extraction and categorization
of legal documents
* Computational models for legal reasoning
* Information Technology and Dispute Resolution
* Information Technology and Crime Prevention
* Knowledge Discovery and Data Mining in Law
* Knowledge management in the legal domain
* Legal argumentation
* Legal discourse modeling and legal reasoning
* Legal electronic agents
* Legal Expert Systems
* Legal ontologies and their creation and use
* Legal reasoning and its computer representation
* Natural language processing in law
* Online Dispute Resolution
* Question answering retrieval in law and governmental services
* Risk management in law
* Semantic Web technologies for law and e-government
* Specialized knowledge representation and logics for law
* Text mining and knowledge extraction in law

SUBMISSION

* Long papers: max. 12 pages
* Work-in-progress reports: max. 6 pages
* Demo papers: max. 4 pages


Papers must be submitted in PDF format according to Springer LNBIP
template available from
http://www.springer.com/east/home/computer/lncs?SGWID=5-164-7-487211-0.

Submission system is available at
http://www.easychair.org/conferences/?conf=lit2009.

Papers approved for presentation at LIT 2009 will be published in
BIS 2009 workshop proceedings, as a volume in Springer's Lecture Notes
in Business Information Processing (LNBIP) series.

WORKSHOP FORMAT

All authors of accepted papers as well as other participants will be
asked to read accepted papers abstracts before the workshop (papers will
be available on-line in advance) to facilitate discussion.
Workshop participants will be also invited to take part in the BIS
conference and other BIS workshops.

IMPORTANT DATES

* February 1, 2009 - submission deadline for papers
* February 22, 2009 - notification of acceptance/rejection
* March 15, 2009 - submission of final papers
* April 27 or 28, 2009 - the workshop

ORGANIZERS

* Poznan University of Economics, Department of Information Systems
(http://kie.ae.poznan.pl/)

CHAIRS

* Piotr Stolarski
* Tadeusz Tomaszewski

PROGRAM COMMITTEE (to be extended)

* Emilia Bellucci, Victoria University, Australia
* Tania Cristina D'Agostini Bueno, Presidente da Diretoria Executiva
IJURIS, Brasil
* Hugo Hoeschl, IJURIS Research Group, Brasil
* Arno Lodder, Free University of Amsterdam, Netherlands
* Rafal Morek, University of Warsaw, Poland
* Erich Schweighofer, University of Vienna, Austria, Austria
* Piotr Stolarski, Poznan University of Economics, Poland
* Andrew Stranieri, University of Ballarat, Australia
* Tadeusz Tomaszewski, Poznan University of Economics, Poland

Os 100 terabytes de arquivos eletrônicos da Era Bush

The New York Times

Bush Data Threatens to Overload Archives
By ROBERT PEAR and SCOTT SHANE

WASHINGTON — The National Archives has put into effect an emergency plan
to handle electronic records from the Bush White House amid growing
doubts about whether its new $144 million computer system can cope with
the vast quantities of digital data it will receive when President Bush
leaves office on Jan. 20.

The technical challenge was an inevitable result of the explosion in
cybercommunications, which will make the electronic record of the Bush
years about 50 times as large as that left by the Clinton White House in
2001, archives officials estimate. The collection will include
top-secret e-mail tracing plans for the Iraq war as well as scenes from
the likes of Barney Cam 2008, a White House video featuring the first pet.

Under federal law, the government has "complete ownership, possession
and control" of presidential and vice-presidential records. The moment
Mr. Bush leaves office, the National Archives becomes legally
responsible for "the custody, control and preservation" of the records.

Archives officials who disclosed the emergency plan said it would mean
that the agency would initially take over parts of the White House
storage system, freezing the contents on Jan. 20. Only later, after
further study, will archivists try to move the records into the
futuristic computer system they have devised as a repository for digital
data.

Questions about the archives' capacity have added a new element to the
uneasiness felt by open-government advocates and historians, who already
fear that departing White House officials, particularly Vice President
Dick Cheney, may not turn over everything. Mr. Cheney asserted this
month in a court case that he had absolute discretion to decide which of
his records are official and which are personal, and thus do not have to
be transferred to the archives,

The National Archives has already begun trucking boxes of paper records
from the White House to a warehouse it is leasing in Lewisville, Tex.,
not a great distance from where Mr. Bush's presidential library is to be
built, at Southern Methodist University in Dallas.

The archives invoked its emergency plan to deal with problems in
transferring two types of electronic files: a huge collection of digital
photographs and the "records management system," which provides an index
to most of the textual records generated by Mr. Bush and his staff
members in the last eight years.

Archivists said it could be weeks or months before these files could be
indexed and searched.

In their plan, archives officials wrote, the transition poses "unique
challenges" because of the huge volume of electronic records, some of
them in "formats not previously dealt with." Even though archivists have
been working with the White House to survey the documents, "there is
always a possibility that some electronic records may be overlooked,"
the officials wrote.

If the electronic records of the Bush White House total 100 terabytes of
information, as archives officials estimate, that would be about 50
times the volume of electronic records left behind by the Clinton White
House in 2001 and some five times the contents of all 20 million
catalogued books in the Library of Congress.

"It's a monstrous volume of material, and some people wonder if the
system can absorb it," said Lee White, executive director of the
National Coalition for History, a collection of 60 archival and
historical groups.

Sam Watkins, a transition liaison officer at the archives, said his
agency was expecting to receive 20 to 24 terabytes of e-mail alone from
the Bush White House. By contrast, Mr. Watkins said, the volume of
e-mail from the Clinton White House was less than one terabyte.

While some routine messages may be of little interest to historians, the
law does not generally permit White House officials to pick which
messages to preserve. And for an administration not documented by the
tapes that captured the inside story of the Johnson and Nixon White
Houses, e-mail may provide a substitute, historians say.

The archives said it had "a high level of confidence" that it could
bring the e-mail into its electronic record-keeping system and retrieve
messages in response to requests from Congress and the courts.

But Thomas S. Blanton, director of the nonprofit National Security
Archive, a plaintiff in several lawsuits seeking Bush administration
records, said the National Archives' track record did not justify such a
claim.

"Their confidence is inexplicable," Mr. Blanton said.

Archives officials said they might have been better prepared for the
transition if the White House had cooperated earlier.

Millions of White House e-mail messages created from 2003 to 2005 appear
to be missing and may not be recoverable. And in September 2007, the top
lawyer at the National Archives wrote in a memorandum that he had "made
almost zero progress" planning the transition because the White House
had ignored repeated requests for information about the volume and
formats of electronic records.

In May of this year, the Government Accountability Office, an
investigative arm of Congress, found that "the administration has not
yet provided specific information on the volume and types of data to be
transferred" to the archives. Linda D. Koontz of the accountability
office warned in May and again in September that the National Archives
might not be ready for the torrent of electronic records on Jan. 20.

Questions remain about how quickly the archives will be able to make the
records accessible to Congress, the courts and researchers, said Paul
Brachfeld, the archives' inspector general.

"The electronic records archives system may be able to take in a
tremendous amount of e-mail and other records," Mr. Brachfeld said. "But
just because you ingest the data does not mean that people can locate,
identify, recover and use the records they need."

The contingency plan, quietly approved by the National Archives on Nov.
7, emphasizes the difficulties posed by large numbers of White House
records created with proprietary commercial software.

Proprietary products can create problems because they quickly become
obsolete, as anyone who has weathered the transition from VHS tape to
DVDs can attest. The National Archives seeks to preserve electronic
records in a form that can be used for decades to come.

Even if the technology were perfect, some historians, librarians and
watchdog groups say they do not fully trust the administration to
preserve its records.

Their worries were heightened by a filing by Mr. Cheney's lawyers this
month in a lawsuit filed by the National Security Archive, Citizens for
Responsibility and Ethics in Washington and other interest groups. The
filing said neither the National Archives nor the court "may supervise
the vice president or his office" for compliance with the Presidential
Records Act.

"There's some anxiety, particularly given the attitude of the office of
the vice president toward records preservation and disclosure," said
Steven Aftergood, of the Federation of American Scientists, who is
editor of the online publication Secrecy News.

A Cheney spokesman, Megan M. Mitchell, said that his office had been
handing over records to the archives "for some time now" and that
concerns about the vice president's intentions were misplaced.

"We will do everything we can under the law to preserve records," Ms.
Mitchell said.

But J. William Leonard, who stepped down in January as the top archives
official overseeing classified records, said there was ample reason for
skepticism.

Mr. Leonard, who clashed while in government with the vice president's
office, noted a remark that Mr. Cheney made in September 2007, at the
presidential library of Gerald R. Ford, for whom Mr. Cheney once worked
as White House chief of staff.

"I'm told researchers like to come and dig through my files, to see if
anything interesting turns up," Mr. Cheney said. "I want to wish them
luck, but the files are pretty thin. I learned early on that if you
don't want your memos to get you in trouble some day, just don't write any."

Fonte:
http://www.nytimes.com/2008/12/27/washington/27archives.html?emc=tnt&tntemail0=y

Livro sobre gestão e preservação de documentos eletrônicos

O livro: Documentos eletrônicos: fundamentos arquivísticos para a
pesquisa em gestão e preservação foi lançado no dia 16 de dezembro de
2008 na Biblioteca Pública Estadual Luiz de Bessa em Belo Horizonte, MG.
Ele pode ser adquirido na portaria do Arquivo Público Mineiro
(http://www.cultura.mg.gov.br/?task=home&sec=5) ou através de contato
com o Sr. Flávio no endereço eletrônico: apmcultural@yahoo.com.br.

Eventos 2009: The International Bielefeld Conference 2009

9th International Bielefeld Conference 2009
http://conference.ub.uni-bielefeld.de/
3 - 5 February 2009 in Bielefeld, Germany

Upgrading the eLibrary
Enhanced Information Services Driven by Technology and Economics

Three decades of databases, two decades of electronic articles and one
decade of open access have resulted in an avalanche of digital scholarly
information services. At the moment we observe a metamorphosis from the
electronic library to an enhanced library, meeting also the emerging demands
of eScience and eLearning. Progress in technology, new concepts of knowledge
networking, but also economic issues are the driving forces for upgrading
the eLibrary, all of them opening up both a world of new opportunities and
of new constraints for progressing enhanced scholarly information services.

The International Bielefeld Conference 2009 provides insights in the future
of eLibraries, based on the threefold interdependency of service,
technology, and economics. The Bielefeld Conferences provide a forum for
internationally renowned and trendsetting speakers to stimulate strategic
discussions among scholars, information specialists, publishers, library
managers and patrons from all over Europe and beyond.


Among the speakers in 2009:
__________

Mario Campolargo
(European Commission, Information Society and Media DG)

Wendy Pradt Lougee
(University of Minnesota, University Librarian)

Sijbolt J. Noorda
(European University Association, Open Access Working Group)

Herbert Van de Sompel
(Los Alamos National Laboratory)


Programmatic Topics
__________

* Information- and eScience-Infrastructure
* Library Services for eLearning
* Novel Publishing Paradigms
* Impacts of Web 2.0 for Library Services
* Search Engines and Text-Mining
* Metrics in Scholarship and Libraries
* Cost Models for Scholarly Information
* Enhanced Publications
* Personalizing Library Services

Programme Committee
__________

Hans Geleijnse, Director of Library and IT-Services & Chief Information
Officer, University of Tilburg

Michael Höppner, Director of Bielefeld University Library

Wolfram Horstmann, Chief Information Officer Scholarly Information,
Bielefeld University Library

Norbert Lossau, Director of State and University Library, Göttingen

Ronald Milne, Director of Scholarship and Collections, The British Library

Zoetrope: interagindo com a informação efêmera - Internet recupera el tiempo

Un programa permite buscar datos en páginas web que ya han desaparecido
o que han cambiado su contenido
Miguel Ángel Criado - Madrid - 04/01/2009 21:35

Las páginas webs son, casi por definición, efímeras. Su contenido cambia
cada poco tiempo y, en el caso de los periódicos, puede ser sólo un
minuto. Ahora un programa pretende recuperar todos los datos
sacrificados con la nueva versión del sitio, dotando de la dimensión del
tiempo a Internet.

Tres investigadores de la Universidad de Washington (EEUU), han creado
Zoetrope (http://www.cond.org/zoetrope.html). El programa tiene el
ambicioso objetivo de ser un buscador temporal que permita recuperar el
contenido de una página que ya no existe o que ha cambiado. La
herramienta permite abrir un menú desplegable y bucear por el historial
de la página, viajando hacia atrás hasta la versión elegida.

Otra posibilidad que ofrece Zoetrope es lo que los creadores llaman
lentes temporales: elegir un tema o dato determinado y ver cómo ha ido
evolucionando. Para ello, hay que seleccionar el área de interés de la
página. La selección puede ser de tres tipos. La primera y más
sofisticada es la visual.

Gracias a una tecnología de web semántica, el programa interpreta la
selección realizada. Así, por ejemplo, si un usuario quiere conocer la
evolución del tráfico en un tramo concreto que recogen sitios como
Google Maps o las páginas de algunos ayuntamientos, sólo necesita
seleccionarlo. El desplegable mostrará la situación del tráfico que
había una hora atrás, el jueves pasado o el mes anterior.

Páginas estables
Este es el sistema más sofisticado pero inestable. Como explican los
autores, la lente visual sólo es posible en páginas que mantienen
siempre su estructura y se limitan a reemplazar un viejo dato por el
nuevo en la misma posición de la web. En el resto de casos, Zoetrope
crea lentes estructurales y textuales.

Las primeras, que también requieren de cierta constancia en el diseño de
la página, aprovechan la estructura del lenguaje HTML para localizar el
término buscado. La lente textual, que analiza la forma, intenta
encontrar cadenas de texto iguales en las distintas versiones de la
página. El programa aún está en fase de pruebas.

Uno de los creadores de Zoetrope, Eytan Adar, explica que "una vez que
tengamos algo más estable, lo ofreceremos a los usuarios para que lo
prueben". Adar piensa que su herramienta podría integrarse en los
navegadores actuales y darles una profundidad en el tiempo que hoy no
tienen.

Para probar el programa, los investigadores seleccionaron 250 páginas de
noticias, deportes, tiempo... que rastrearon durante un mes a intervalos
de una hora. No parecen ni muchas páginas (hay unos 175 millones de
sitios) ni mucho tiempo. Pero se necesitan muchos servidores para todos
los datos que quiere ZoetropeTal infraestructura sólo está al alcance de
grandes empresas como Google o Microsoft. Pero se da la circunstancia de
que en la creación de Zoetrope ha participado otra gran firma como es
Adobe Systems.

El proyecto Internet Archive guarda 150 millones de webs
Creada en 1996, Internet Archive es una organización sin ánimo de lucro
que se impuso la misión de construir una biblioteca de lo digital. Desde
entonces, y gracias a la colaboración de muchas instituciones, este
organismo afincado en San Francisco ha recopilado 250.000 grabaciones de
audio, 135.000 vídeos y un millón de libros descargables. Al cierre del
año, había superado los 150.000 millones de sitios web catalogados.

La cifra incluye varias copias del mismo sitio tomadas cada cierto
tiempo (un mes como mínimo) y todas sus páginas. Aunque Eytan Adar, uno
de los creadores de Zoetrope, reconoce que sería buena idea poder usar
los datos de este archivo, dice que la falta de continuidad en el tiempo
lo hace poco útil para el objetivo de darle una dimensión temporal a la
Red con su programa. Dos ejemplos ilustran este problema.

Internet Archive tiene unas pocas decenas de copias del portal Ole.com,
pionero en España y que después sería el germen de Terra. Mientras, del
sitio de Yahoo tiene centenares de versiones desde 1996.

© *Diario Público*.
Calle Caleruega nº 104, 1ª planta. Madrid 28033.

Internautas no Brasil - Base de internautas pode superar 50 milhões

Base de internautas pode superar 50 milhões

Fonte: Valor Econômico. Data: 6/01/2009
Pessoas com acesso à web no Brasil já é maior que a população de
países como Espanha e Argentina

André Borges escreve para o "Valor Econômico":

Depois de viver um ciclo de crescimento sem precedentes no mercado de
computadores, o Brasil fechou 2008 com mais de 43 milhões de pessoas com
acesso à internet, segundo dados do instituto de pesquisa Ibope/NetRatings.
No fim de 2003, esse contingente era de 22 milhões de pessoas. Por si só, o
volume já excede a população total de países como Espanha e Argentina.

Mas o número total certamente é ainda maior, uma vez que os dados
contabilizam apenas usuários a partir dos 16 anos de idade, com acesso em
qualquer tipo de ambiente - residência, trabalho, escolas, lan houses,
bibliotecas e telecentros.

Neste ano, mesmo se considerado o cenário econômico mais pessimista, a
expectativa é de que a rede mundial quebre a fronteira dos 50 milhões de
usuários no país. "Os últimos dois anos foram períodos muito fortes, uma
fase que não irá se repetir em 2009, mas certamente o país vai manter um bom
ritmo de acesso", diz Fernando Meirelles, professor e coordenador do centro
de pesquisa de tecnologia da Fundação Getulio Vargas, de São Paulo (FGV-SP).

A previsão é de que o acesso residencial, que tem sido o principal
motor da rede de computadores no país, continuará a ser estimulado pela
entrada das classes C e D. "A internet vem se transformando em um item
essencial de consumo do usuário urbano", comenta Marcelo Coutinho, diretor
de análise de mercado do Ibope Inteligência. "Uma vez que a pessoa tenha
contato com a tecnologia, ela tende a não querer abrir mão desse benefício."

Até novembro, o número de pessoas que moram em residências onde há um
computador com acesso à internet subiu para 38,2 milhões, segundo o Ibope.
Em dois anos, o crescimento foi de 73%.

A entrada em massa de novos usuários na rede ajuda a entender o
sucesso das chamadas redes sociais, sites usados para trocar mensagens e
exibir conteúdo. Um levantamento realizado pela empresa de pesquisas Pyramid
Research mostra que sites de relacionamento e de compartilhamento de
conteúdo, como o Orkut e o YouTube, lideram o ranking dos serviços mais
procurados pelo internauta brasileiro, ao lado de ferramentas como o MSN, de
mensagem instantânea, e o serviço de correio eletrônico Hotmail.

"As redes sociais têm sido a porta de entrada da maior parte das
pessoas que acessam a internet pela primeira vez", diz Coutinho. "Antes de
qualquer outra coisa, as pessoas querem se comunicar."

Segundo o estudo, que foi encomendado pelo Google, as ferramentas de
comunicação atraem 87% da base de entrevistados. Elas são seguidas pela
busca de notícias, entretenimento e pesquisas escolares (com 81% das
respostas), músicas e vídeos (42%) e comércio eletrônico (23%).

A expansão da base de usuários da rede vem sendo acompanhada pela
adesão aos serviços de banda larga, os quais, desde 2007, já superam o
número de conexões discadas no país, segundo dados do Comitê Gestor da
Internet. Entre as famílias com renda superior a cinco salários mínimos, a
conexão em alta velocidade já é realidade para 57% das pessoas, uma taxa que
atingia 22% em 2005.

A tendência é de crescimento. Em junho de 2008 foram contabilizadas
mais de 10 milhões de conexões rápidas à internet, volume 48% superior ao de
junho de 2007, segundo estudo da consultoria IDC, encomendado pela Cisco
Systems. O aumento da banda larga, diz Meirelles, da FGV-SP, deverá passar
por uma redução no custo dos serviços ao longo deste ano. "O efeito
psicológico da crise econômica é muito forte sobre as pessoas, que tendem a
ficar mais resistentes a gastar com tecnologia", observa. "As empresas que
oferecem os serviços terão que reagir a isso."

Para o pesquisador da FGV-SP, as turbulências esperadas nos próximos
meses não deverão afetar a popularização da internet no país. Até 2012, diz
Meirelles, o Brasil terá 100 milhões de internautas.

Mestrado e Doutorado em Ciência da Informação - UNESP - Marília

MESTRADO ACADÊMICO E DOUTORADO EM CIÊNCIA DA INFORMAÇÃO - UNESP
 
O Programa de Pós-Graduação em Ciência da Informação (PPGCI) da Universidade Estadual Paulista (UNESP), campus de Marília, informa que no período de 19 de janeiro a 16 de fevereiro de 2009 estarão abertas as inscrições para o Processo Seletivo para o Mestrado Acadêmico e Doutorado.

As informações sobre o PPGCI/UNESP, área de concentração, linhas de pesquisa, corpo docente, dissertações e teses defendidas, processo seletivo, edital e inscrições (on-line) podem ser obtidas:


- Site:
http://www.marilia.unesp.br/posci/
- E-mail: posci@marilia.unesp.br

- Telefones: +55 (14) 34021336 / 34021357

 

Consulta Pública Esquema de Metadados do e-Arq Brasil

O CONSELHO NACIONAL DE ARQUIVOS – CONARQ e a Câmara Técnica de
Documentos Eletrônicos - CTDE , informam que no período de 5 de janeiro
a 31 de março ocorrerá a Chamada para Consulta Pública 2009, sobre o
Esquema de Metadados do e-Arq BRASIL - Versão 1.

Esta Consulta Pública tem por finalidade promover a participação da
sociedade no processo de tomada de decisões do Conselho Nacional de
Arquivos - CONARQ. Ela é dirigida principalmente aos setores envolvidos
com a gestão documental, arquivologia, ciência da informação,
administração pública, fornecedores de serviços e tecnologias de
informação e comunicação, e a todos que se interessam pelo tema.

O Esquema de Metadados do Modelo de Requisitos para Sistemas
Informatizados de Gestão Arquivística de Documentos, elaborado pela
Câmara Técnica de Documentos Eletrônicos e aprovado na 50ª reunião
plenária do CONARQ, em 11 de dezembro de 2008, é formado por um conjunto
de 79 elementos essenciais que integram a Parte II do e-ARQ Brasil -
Versão 1.

Nesse processo, serão recebidas e analisadas as contribuições para o
aprimoramento do documento ora em Consulta, cujo resultado será
divulgado na publicação da versão final do documento.

Contamos com a sua participação, divulgando e/ou enviando contribuições.
<http://www.conarq.arquivonacional.gov.br>

Google e os livros digitalizados

Google coloca na web tesouros da literatura
09/01/2009 |
Motoko Rich
Gazeta Mercantil


9 de Janeiro de 2009 - Ben Zimmer, produtor-executivo de um website e
software de prateleira chamado Visual Thesaurus, procurava o mais antigo uso
da frase "you're not the boss of me". Usando um banco de dados de jornal,
ele encontrou uma referência de 1953.

Mas enquanto usava o site de busca de livros do Google recentemente,
encontrou a frase num conto inserido em "The Church", um periódico publicado
em 1883 e escaneado da Bodlein Library da Universidade de Oxford.

Desde que o Google começou a escanear, há quatro anos, livros impressos, os
acadêmicos e outros com interesses especializados têm sido capazes de
explorar um tesouro de informações estava confinado nas prateleiras de
bibliotecas e nas livrarias de obras antigas.

Segundo Dan Clancy, diretor de engenharia do site de busca de livros do
Google, todos os meses os usuários lêem nada menos que 10 páginas de mais da
metade dos um milhão de livros usados que a empresa escaneou para dentro de
seus servidores.

O site de busca de livros da Google "permite consultar obras que seriam
muito difíceis de consultar de outro modo", disse Zimmer, cujo site é
vusialthesaurus.com.

Direitos autorais

O acordo fechado em outubro com os autores e as editoras que moveram dois
processos de direitos autorais contra o Google possibilitará aos usuários
acesso a uma coleção muito maior de livros, incluindo vários ainda sob
proteção de direito autoral.

O acordo, que depende de aprovação por um juiz, também abriu caminho para os
dois lados obterem lucro com as versões digitais de livros. Não se sabe
exatamente qual tipo de oportunidade comercial a parceria representa, mas
poucos esperam que gere lucros expressivos para qualquer autor individual.
Mesmo o Google não espera necessariamente que o programa de livros contribua
de modo significativo para seu resultado líquido.

"Não pensamos necessariamente na possibilidade de ganhar dinheiro", disse
Sergey Brin, co-fundador do Google e seu presidente de tecnologia, numa
breve entrevista concedida na sede da empresa. "Só sentimos que isso faz
parte de nossa missão essencial. Há informações fantásticas nos livros".

A receita será gerada por meio da venda de publicidade nas páginas em que
aparecem os resumos dos livros escaneados, por meio de assinaturas feitas
pelas bibliotecas e outras para um banco de dados de todos os livros
escaneados na coleção do Google. Outra alternativa é a venda de acesso aos
consumidores dos livros protegidos por direito autoral. O Google vai ficar
com 37% dessa receita, deixando 63% para as editoras e os autores.

O acordo pode dar vida nova para os livros esgotados e protegidos por
direito autoral numa forma digital e permitir aos autores obter dinheiro com
títulos que estão fora da circulação comercial há anos. Dos sete milhões de
livros que o Google escaneou até agora, perto de cinco milhões se encontram
nessa categoria.

Mesmo que o Google tivesse ido a julgamento e perdesse os processos, disse
Alexander Macgillivray, conselheiro geral associado para produtos e
propriedade intelectual da empresa, teria obtido o direito de mostrar só as
resenhas dos conteúdos desses livros. "O que as pessoas querem fazer é ler o
livro", disse Macgillivray.

Download gratuito

Os usuários já estão tirando vantagem dos livros esgotados que estão
disponíveis para download gratuito. Clancy estava monitorando as consultas
de pesquisa recentemente quando a expressão "moldes de fontes de concreto"
chamou sua atenção. A busca apresentou uma versão digital de um título
obscuro de 1910, e o usuário passou quatro horas explorando as 350 páginas
do livro.

Para os acadêmicos e outros que pesquisam tópicos que o verbete do Wikipedia
não satisfaz, o acordo oferecerá acesso a milhões de livros pelo clique do
mouse. "Mais estudantes de pequenas cidades da América poderão ter muito
mais informações na ponta dos dedos", disse Michael A. Keller, bibliotecário
de Universidade de Stanford. "Isso é realmente importante".

Quando o acordo foi anunciado, em outubro, todos os lados o saudaram como
uma parceria histórica, pois deixa o Google prosseguir com seu projeto de
escaneamento enquanto protege os direitos e os interesses financeiros de
autores e editoras. Os dois lados concordaram em discutir se o escaneamento
do livro por si mesmo violava os direitos autorais de autores e editoras.

Nos meses seguintes, todas as partes dos processos - assim como aquelas que
serão afetadas, como a dos bibliotecários - tiveram oportunidade de examinar
o documento de acordo de 303 páginas e tentar assimilar seus prováveis
resultados.

Alguns bibliotecários expressaram reservadamente receios de que o Google
possa cobrar altos preços pelas assinaturas do banco de dados quando o site
amadurecer. Embora grupos sem fins lucrativos, como o Open Content Alliance,
organizem suas próprias coleções digitais, nenhum outro concorrente
importante do setor privado está envolvido nessa atividade. Em maio, a
Microsoft encerrou seu projeto de escaneamento de livro, deixando
efetivamente o Google como uma participante corporativa monopolista.

David Drummond, chefe do departamento legal do Google, disse que a empresa
queria ampliar o banco de dados para cobrir o maior número de bibliotecas
possível. "Se o preço for muito elevado", ele disse, "nós simplesmente não
vamos ter bibliotecas que possam pagar o preço".

Para os leitores que quiserem comprar acesso digital a um livro escaneado
específico, disse Clancy, a Google pode vender pelo menos metade dos livros
por US$ 5,99 ou menos. Os estudantes e as universidades que têm a assinatura
do banco de dados poderão ter gratuitamente os conteúdos integrais de todos
os livros.

Para os autores em geral, "isso não representa uma mudança do jogo" num
sentido econômico, disse Richard Sarnoff, diretor da Associação de Editoras
Americanas e presidente do grupo de investimentos em mídia digital da
Bertelsmann, a empresa controladora da Randon House, maior editora de livros
do mundo.

"Eles serão pagos pelo uso de seus livros, mas creio que é uma fantasia
imaginar que ganharão com isso o suficiente para viverem em alto estilo ",
disse Sarnoff. Mas, ele acrescentou, "poucas centenas de dólares para um
autor podem ser uma soma considerável para uma editora que detêm os direitos
de 10 mil livros".

Até agora, as editoras que autorizaram o Google a oferecer versões digitais
disponíveis para busca de seus novos livros receberam um baixo pagamento. A
Macmillan, a empresa que controla editoras como a Farrar, Straus & Giroux e
St. Martins Press e representa autores como Jonathan Franzen e Janet
Evanovich, oferece 11 mil títulos para busca no Google. Em 2007, a Macmillan
estimou que o Google ajudou a vender perto de 16.400 cópias.

Os autores vêem a possibilidade de os leitores encontrarem seus livros
esgotados mais como uma vitória cultural do que financeira.

Alguns acadêmicos temem que os usuários do site do Google mais provavelmente
buscarão informações específicas contidas nos livros em vez de lerem a obra
toda. "Tenho a dizer que, em termos pedagógicos e de progresso do
aprendizado, tenho a preocupação de que as pessoas serão incentivadas a usar
os livros dessa forma fragmentária", disse Alice Prochaska, bibliotecária da
Universidade de Yale.

Outros dizem acreditar que os leitores continuarão apreciando os textos
longos e que o site de busca de livros vai simplesmente ajudar os leitores a
encontrá-los.

"Não há atalho para apreciar Jane Austen, e espero estar certo quanto a
isso", disse Paul Courant, bibliotecário da Universidade de Michigan. "Mas
muitas das leituras serão feitas nas telas. Uma dos aspectos mais importante
desse acordo é que ele traz de volta a literatura do século 20 de uma forma
que os estudantes dos século 21 serão capazes de encontrá-la".

O site de busca de livros da Google já entrou na cultura popular, na versão
cinematográfica de "Crepúsculo", baseado no romance de Stephenie Meyer sobre
uma adolescente que se apaixona por um vampiro. Bella, uma das principais
personagens, usa o site de busca da Google para encontrar informações sobre
uma tribo indígena americana local. Quando a busca a leva para um livro, o
que ela faz? Ela vai para uma livraria e o compra.

(Gazeta Mercantil/Caderno C - Pág. 6)

LinkWithin

Related Posts Plugin for WordPress, Blogger...