jan - 2013 28

Brooklyn2

  1. Announcing: The Shelby White & Leon Levy Information Commons at Brooklyn Public Library. Brooklyn Public library (New-York) vient d’ouvrir un nouvel espace, “Information Commons”, son carrefour d’apprentissage. Un espace axé sur la formation et la technologie, qui offre des classes publiques et des ateliers, des espaces de rencontre, un laboratoire de formation, un laboratoire de création numérique, plusieurs salles de travail à réserver et un studio d’enregistrement audio/vidéo.
  2. Un distributeur de MacBook Pro gratuits dans une université. « Cette borne propose aux étudiants des ordinateurs en libre-service et équipés de nombreux logiciels. Leur utilisation est limitée à 5 heures par personne (5$ par demi-heure supplémentaire). L’étudiant peut accéder à ce service grâce à une carte magnétique fournie gratuitement par l’université. »
  3. La première bibliothèque publique sans livres aux États-Unis ouvrira bientôt au Texas. Une première bibliothèque sans livres verra le jour à San Antonio au Texas. Elle offrira à ses usagers des liseuses électroniques avec des livres déjà chargés pour le prêt et des espaces de lecture et de travail équipés d’ordinateurs.
  4. Bibliothèque du secteur Ouest (Ottawa). Une nouvelle succursale verra le jour en 2014 à Ottawa. Le site web présente divers documents sur l’avancement du projet. Une Présentation Powerpoint de la consultation publique pré-conception de cette future succursale est disponible sur le site.
  5. Take the Library to the People ! Des projets inspirants de bibliothèques à travers le monde qui se déplacent pour rejoindre de nouveaux usagers : la bibliothèque de l’aéroport de Schiphol à Amsterdam, les bibliothèques de plage, une bibliothèque dans une station de métro aux Pays-Bas, « Movable library »à Taiwan, lecture au marché au Pérou, Biblio-vélo au Brésil, Uni Project à New York, etc.
  6. What should a library look like in 2013? Answer: ‘Open’. Des spécialistes donnent leurs avis sur ce que devrait être une bibliothèque en 2013.

Photo : Brooklyn Public Library (New York) par Paul Lowry. Source: Flickr, licence : cc by 2.0

oct - 2012 24

Social Media Information Overload

La veille, c’est quoi et pourquoi ?

Effectuer une veille régulière sur son environnement immédiat est le rêve de toute organisation, ces dernières justifient souvent leur incapacité à faire de la veille par le manque de ressources, de moyens et de temps.

Bien qu’elles soient conscientes de l’importance de la veille, peu d’organisations investissent dans un système de veille structuré et formel.

Comme le souligne bien Humbert LESCA, l’un des grands spécialistes de la veille, « s’il est naturel de s’interroger sur les coûts engendrés par la veille stratégique, il est tout aussi vital de s’interroger sur les coûts de la « non veille stratégique ».

Nous vivons dans un monde en constante évolution, marqué par l’incertitude, les mutations sociales, technologiques, politiques, économiques, etc. Personne n’avait prédit l’apparition et le succès planétaire des médias sociaux comme Facebook ou Twitter, ni leur immense pouvoir et nous ne savons pas quelle sera la prochaine révolution.

Dans un tel contexte, la veille est une nécessité, un impératif pour toute organisation qui veut assurer sa pérennité. Elle nous permet d’anticiper le changement, de repérer les opportunités et de détecter les menaces.

Nous avons besoin de « scanner », d’observer et de surveiller continuellement notre environnement immédiat : politique, économique, social, culturel, technologique, etc. d’identifier les pratiques innovantes, les tendances émergentes, de s’inspirer, d’évoluer et d’innover. La veille est aussi un outil d’aide à la décision, elle consiste à «Donner la bonne information à la bonne personne, au bon moment, pour prendre la bonne décision» Michael E. Porter.

François Jakobiak définit la veille comme « l’observation et l’analyse de l’environnement suivies de la diffusion bien ciblée des informations sélectionnées et traitées, utiles à la prise de décision stratégique ».

Plusieurs personnes ou organisations affirment faire de la veille, mais en fait, elles font juste de la recherche d’information, car la veille est un processus intellectuel qui va au-delà de la collecte d’information. La veille n’a de valeur que si l’information brute collectée est enrichie par des analyses et des synthèses puis diffusée et capitalisée dans le but d’alimenter et d’optimiser la prise de décision. L’absence de cette étape clé de traitement et d’enrichissement est capable de faire échouer tout processus de veille.

Pour réussir son projet de veille, il est essentiel de définir ses besoins, ses objectifs et ses priorités : pourquoi on veut faire de la veille ? Pour qui ? Pour quel usage ? Sous quelles formes ? La définition des besoins et des objectifs nous amène par la suite à identifier nos axes de veille, les thèmes et sous thèmes à surveiller, pour éviter de tomber dans l’infobésité et se concentrer sur nos objectifs. Avec la masse d’information produite à tous les jours, il est difficile d’être exhaustif et de couvrir tout ce qui est publié. Il faut prioriser, pour faciliter le travail de sélection, d’organisation et de stockage par la suite. Vouloir tout répertorier peut nous éloigner de nos objectifs initiaux et de nos priorités.

Une fois les axes de veille identifiés, l’étape suivante consiste à identifier les sources d’information les plus pertinentes pour chacun des axes.

Cycle de la veille

Pour une veille structurée et à valeur ajoutée, il est important de respecter les étapes suivantes :

  1. La collecte de l’information : la collecte se fait via les flux RSS, les alertes et des outils comme Google Actualités et Google News, les requêtes dans les principaux moteurs de recherche, les médias sociaux de type « professionnel » comme Twitter ou Linkedin. Lorsque le nombre de flux RSS est important, il est nécessaire d’avoir recours à un lecteur de flux comme Google Reader ou à un agrégateur comme Netvibes. Il est également important à cette étape de considérer le web invisible ou le web profond, qui comprend tout ce qui n’est pas facilement accessible via les moteurs de recherche classiques : bases de données commerciales, les sites internet ayant un moteur de recherche interne, etc. Le web invisible est beaucoup plus important, en termes de quantité, mais aussi de qualité, que le web visible, le  web de surface. Cette étape comprend également le tri, l’organisation et le stockage des informations collectées. Des outils de gestion de favoris comme Delicious sont tout à fait pertinents pour cette étape. Ils nous offrent la possibilité d’organiser nos favoris par « tag » ou mot-clé et de générer des listes dynamiques ou des webographies à partir de chacun des mots-clés attribués.
  2. L’analyse et le traitement : cette étape est cruciale et  consiste à transformer et à enrichir les informations brutes collectées, c’est la valeur ajoutée de la veille, de tirer profit de la masse d’information collectée. Elle consiste à analyser et à synthétiser l’information brute, à la rendre exploitable pour la prise de décision. Elle peut prendre la forme d’un dossier, d’un rapport, d’une synthèse ou tout simplement d’une liste de ressources organisées par thème et sous thèmes.
  3. La diffusion : consiste à transmettre et à partager les résultats de la veille. La diffusion doit être faite de façon régulière. Pour cela, il existe différentes formes ou produits de la veille : bulletins de veille, infolettres, billets de blogue, etc. L’intérêt de la veille réside dans le partage, faire profiter le maximum de personnes des résultats de la veille.
  4. La capitalisation : cette étape permet d’apprécier et de valoriser tout le processus de veille et particulièrement les résultats de la veille, c’est l’étape la plus longue, elle se fait progressivement et peut se traduire par la constitution d’une base de connaissances avec des outils comme les wikis. Capitaliser le savoir, les connaissances et les expertises est un travail de longue haleine, un processus complexe et exige une volonté collective de partage et de transfert des connaissances. Il s’agit du capital immatériel, des connaissances tacites. C’est une compétence « humaine » car il n’y a aucune technologie en ce moment qui permet d’extraire automatiquement les connaissances tacites et de les formaliser de façon matérielle, sur un support. La gestion des connaissances est donc un aspect important à considérer dans tout processus de veille.

L’évaluation de tout le processus de veille par rapport aux objectifs et besoins initiaux est également une étape importante. Elle permet de se réajuster, d’évoluer parce que les besoins, les sources d’information, les outils et la technologie évoluent constamment. On peut se servir des tableaux de bord pour réaliser cette étape. L’évaluation passe également par l’obtention de l’avis, la rétroaction du public cible de la veille, en comparant les réalisations de la veille aux besoins réels des équipes et en s’assurant de leur concordance.

Veille et innovation

Il y a un lien important à faire entre la veille et l’innovation. L’innovation (et non l’invention) vient souvent en s’inspirant des autres, de leurs expériences, des meilleures pratiques pour créer quelque chose de nouveau, améliorer un processus, un produit, un service, etc. Il ne peut pas y avoir d’innovation sans un système de veille structuré et efficace.

Olivier Soula, dans son article sur le rôle de la veille dans une démarche d’innovation cite l’approche du « degré d’originalité » développée par de D. Peltz et F. Munson, selon laquelle l’innovation passe également par l’adaptation et l’emprunt et non pas seulement par « l’origination ».  Selon l’auteur, « l’approche distingue l’innovation selon trois « degrés d’originalité » :

  1. L’«origination » : l’organisation développe une solution originale et inédite qui ne dépend en rien d’apport extérieur.
  2. L’adaptation : l’organisation adapte à sa propre situation une solution déjà connue.
  3. L’emprunt : l’organisation met en œuvre des solutions bien rodées qui nécessitent peu de changement dans le contenu de l’innovation. »

Pour explorer davantage le lien entre veille et innovation, voici une suggestion d’articles sur le sujet :

Rôle et limites de la technologie

Le web, est spécialement le web 2.0 a bouleversé les méthodes et les processus de veille. L’étape de la collecte de l’information est automatisée grâce aux alertes, aux flux RSS, aux agrégateurs et autres outils. Mais le travail de sélection, d’organisation, de synthèse et d’analyse est un travail intellectuel qui repose essentiellement sur des compétences humaines et aucun outil ou technologie ne peut remplacer ces compétences. L’humain est au cœur de toute stratégie de veille. C’est lui qui attribue de la valeur à l’information, en l’interprétant, l’analysant et la synthétisant, en la rendant exploitable pour la prise de décision.

Réussir la veille c’est éviter d’improviser, respecter toutes les étapes du cycle de la veille et aller au-delà de la collecte d’information.

L’étape de la réflexion est cruciale : une bonne analyse des besoins et une définition des objectifs est un gage de réussite de tout projet de veille. Improviser cette étape peut conduire à l’échec de tout le processus.

Une organisation innovante et intelligente est une organisation qui valorise ses ressources informationnelles et capitalise le savoir et les expertises de ses équipes, qui pratique une veille organisée, structurée et non une veille improvisée. La veille en tant qu’outil d’aide à la décision permet de fournir les informations pertinentes, de documenter la prise de décision et toute décision doit faire appel à la veille.

Pour aller plus loin

Photo: Information Overload, source: Flickr, galerie de Intersection Consulting, licence : CC BY-NC 2.0

Mot(s)-clé(s) associé(s) à cet article :
oct - 2012 04

On vous invite à relire la 1ère partie, 2e partie et 3e partie.

Et les catalogueurs eux ?

Il faut toutefois donner raison à M.Gorman dans un sens. Pour les catalogueurs on ne peut minimiser les impacts : il s’agit là d’un changement dramatique d’avec les anciennes façons de cataloguer :

  • Étonnamment une nouvelle «notice» selon les RDA peut être relativement semblable à l’ancienne à la condition de garder le même format d’encodage (MARC) et le même ISBD MAIS pour y arriver le chemin sera radicalement différent car :
  • La terminologie FRBR est totalement différente.
  • Certaines notions ne sont pas simples à définir et à distinguer : l’entité Expression par exemple ou le point exact où une première «œuvre» peut devenir une 2e «œuvre» et non pas une expression, etc.
  • La structure du code ne présente aucune ressemblance avec celle des AACR2 : les chapitres ne sont plus basés sur les formats et ensuite divisés en grandes zones ISBD mais sont basés sur les éléments de description (attributs) pour chaque entité FRBR. Les indications sur les formats sont toutes énumérées à l’intérieur de chaque chapitre selon l’entité décrite (voir plus bas).
  • RDA contient 10 sections, 27 chapitres et 13 annexes ; la table des matières à elle seule compte 113 pages et le texte complet, 1 754 pages !! C’est essentiellement un outil «online».
  • Les «attributs» sont présentés en blocs et exemples distincts sans la structure ISBD qui enchâssait les éléments de description les uns aux autres.
  • Comme l’indique très bien Mme Chris Oliver, «le modèle FRBR modifie l’objectif du processus du catalogage. L’objectif n’est plus fixé sur le catalogueur qui crée une seule notice, mais plutôt sur l‘utilisateur qui cherche la notice dans un contexte d’un vaste catalogue ou d’une vaste base de données»[i]. Voilà tout un programme pour nous les catalogueurs !!

Comparons simplement la structure des 2 codes pour «apprécier» le changement radical de l’approche :

STRUCTURE AACR2

Partie 1 – Description

  1. Généralités
  2. Livres, brochures et feuilles imprimées
  3. Documents cartographiques
  4. Manuscrits
  5. Imprimés musicaux
  6. Enregistrements sonores
  7. Films cinématographiques et enregistrements vidéo
  8. Documents iconiques
  9. Ressources électroniques
  10. Artéfacts et échantillons en 3 dimensions
  11. Microformes
  12. Ressources continues
  13. Analyse

Partie 2 – Vedettes, titres uniformes et renvois

  1. Choix des accès à la description des documents
  2. Vedettes de personne
  3. Vedettes géographiques
  4. Vedettes de collectivité
  5. Titres uniformes
  6. Renvois

STRUCTURE RDA

ATTRIBUTS

Section 1. Attributs des manifestations et des items

Section 2. Attributs des œuvres et des expressions

Section 3. Attributs des personnes, familles et collectivités

Section 4. Attributs des concepts, objets, événements et lieux

RELATIONS

Section 5. Relations primaires entre œuvre, expression, manifestation et item

Section 6. Relations aux personnes, familles et collectivités associées à        une ressource.

Section 7. Relations aux concepts, objets, événements et lieux

Section 8. Relations entre œuvres, expressions, manifestations et items.

Section 9. Relations entre personnes, familles et collectivités

Section 10. Relations entre concepts, objets, événements et lieux

Ce qui saute aux yeux (et qui est «troublant» pour tout catalogueur) est le fait que la structure de la nouvelle norme  n’est plus divisée en genres de documents bien distincts mais plutôt en attributs et relations !! Le but poursuivi est «to simplify the cataloguing process. Rather than provide a number of specialized chapters that deal with particular categories of materials RDA will attempt to present a single set of instructions capable of describing any type of information resource. It will no longer matter if the resource is a book, a podcast or some as yet to be invented information resource. RDA will provide the necessary guidelines and instructions to record the attributes and relationships that represent the content of the information resource».[ii]

De plus toute la terminologie habituelle change. Ainsi on ne parle plus :

  • de vedette mais de point d’accès autorisé pour une oeuvre
  • de recueil mais de compilation
  • de renvoi mais de variante de nom
  • de titre uniforme mais de point d’accès autorisé pour une œuvre ou une expression
  • de vedette secondaire mais de variante de point d’accès
  • de vedette principale mais de point d’accès préféré
  • d’inscrire un ISBN mais d’inscrire un identificateur de la manifestation

Autre changement significatif : les RDA remplacent les IGGD (Indication Générale du Genre de Document qui sont les mentions entre parenthèses à la fin du titre comme [enregistrement sonore]) et les classes de documents par un nouveau cadre qui comporte trois éléments : type de contenu, type de média et type de support. «L’information que les IGGD communiquaient était de l’information utile. De plus, la visibilité des IGGD agissait comme un signe d’avertissement précoce pour aider l’utilisateur à distinguer les ressources les plus appropriées. Le problème avec les IGGD était l’incohérence de la catégorisation»[iii] puisqu’on y mêle les types de média (ex. : [microforme]) avec les types de contenus (ex. : [musique]). Le codage des 3 nouveaux éléments est déjà prévu en MARC 21 sous les nouvelles zones 336 (Type de contenu), 337 (Type de média) et 338 (Type de support). Cela permettra une granularité rendue nécessaire par le besoin de bien distinguer les contenus des supports et de les attribuer aux bons types d’entité. L’étude exhaustive de Chris Oliver (citée plus haut) sur la description des ressources de différents formats dans RDA donne un éclairage très lumineux sur ce problème particulier.

Pour nous aider à faire la transition, l’organisme responsable de la mise en œuvre des RDA, le Joint Steering Committee for Development of RDA (JSC)

(constitué de représentants du Comité canadien de catalogage, de l’American Library Association, du Chartered Institute of Library and Information Professionals (Royaume-Uni), de l’Australian Committee on Cataloguing, de la British Library et de la Library of Congress) offre la possibilité (moyennant «quelques» $$$) d’utiliser le RDA Toolkit.

Cette boîte à outils offre les instructions RDA en ligne avec une multitude de liens, des diagrammes de flux, des exemples de notices en AACR2 vs RDA, le texte complet des AACR2 en lien avec les RDA, etc.

C’est pour quand ?

La Library of Congress a annoncé officiellement qu’elle allait implanter et utiliser RDA à partir du 31 mars 2013. Les autres bibliothèques nationales impliquées dans le projet (Canada, Grande-Bretagne, Allemagne et Australie) feront de même vers la même date. Bibliothèques et Archives nationales du Québec prévoit implanter la norme RDA au courant de 2013. Bien sûr une traduction française est en cours et devra être terminée avant l’utilisation de la nouvelle norme.

De plus, «afin de permettre la création et l’échange de données RDA, les fournisseurs de systèmes intégrés de gestion de bibliothèque devront d’abord apporter des changements à la structure MARC 21 de leur catalogue. Les index devront également être modifiés afin de permettre la recherche et éventuellement l’affichage des nouveaux éléments de données.

À terme, les catalogues d’accès public seront aussi amenés à évoluer afin de tirer pleinement profit des données créées au moyen de la norme RDA et d’offrir aux utilisateurs une présentation plus intégrée des données.

En général, la conversion des notices existantes ne sera pas nécessaire puisque les notices créées au moyen de la norme RDA pourront cohabiter avec les notices créées selon le RCAA2.»[iv]

Le défi est de taille : il faut mettre en conjonction tous les éléments impliqués (les fournisseurs de systèmes, les outils de travail, les nouveaux concepts, les anciens catalogues, le format de présentation, les techniciens en documentation et les bibliothécaires, etc.) afin d’offrir un produit qui sera une véritable amélioration par rapport à ce qui existe présentement. Les questions sont présentement nombreuses, à commencer par celle fondamentale : ça devrait aller pour la description (les attributs) des entités bibliographiques (moyennant une sérieuse gymnastique intellectuelle J) mais pour bien établir les relations DANS les notices OU entre les notices à venir afin de tirer profit de ce riche cadre théorique et l’illustrer de façon conviviale dans les nouveaux OPAC, voilà où les réponses sont présentement partielles et à venir …


[i] Oliver, Chris. FRBR et RDA : Progrès dans la description des ressources de divers formats, Mars 2009, p.107 http://www.collectionscanada.gc.ca/obj/005002/f2/005002-2200-f.pdf

[ii] Knight, Tim. Cataloguing rules! The road to RDA. p.4.

http://pi.library.yorku.ca/dspace/bitstream/handle/10315/2550/RDA_TALL_2009_final.pdf?sequence=1

[iii] Oliver, Chris. FRBR et RDA : Progrès dans la description des ressources de divers formats, Mars 2009, p.63. http://www.collectionscanada.gc.ca/obj/005002/f2/005002-2200-f.pdf

[iv] Service Québécois de Traitement Documentaire. RDA-Questions et réponseshttp://sqtd.banq.qc.ca/faq/faq-rda.dot

Mot(s)-clé(s) associé(s) à cet article :
oct - 2012 03

(Voir la 1ère et 2e partie)

Peut-on dès maintenant appliquer les «bienfaits» de ce modèle relationnel dans les catalogues de nos bibliothèques ?

OCLC a rapidement sauté dans le train qui se mettait en marche : de nombreuses études et des projets pilotes sur leur propre base de données ont pavé la voie. Leur catalogue WorldCat en est un exemple partiel. Leur approche consiste à regrouper dynamiquement les notices d’une même oeuvre selon des algorithmes basés sur les ISBN: par exemple le FictionFinder est un prototype qui illustre bien l’application des principes des FRBR pour aggréger l’information bibliographique au niveau des manifestations. Dans ce projet les «records are clustered into works using the OCLC FRBR Work-Set Algorithm. The algorithm collects bibliographic records into groups based on author and title information from bibliographic and authority records. Author names and titles are normalized to construct a key. All records with the same key are grouped together in a work set»[i]. Ce projet est toutefois présentement en «rénovation». L’expérience d’OCLC dans ce domaine leur permet de proposer aux bibliothèques un service Web appelé xISBN (qui utilise l’algorithme développé) et qui permettra aux bibliothèques de faire automatiquement les liens dans leur propre catalogue.

La Library of Congress a également conçu un outil permettant un regroupement des notices bibliographiques au niveau de l’œuvre et de l’expression. En effet, le FRBR Display Tool «sorts and arranges bibliographic records using the FRBR model. It then generates useful hierarchical displays of these record sets containing works that consist of multiple expressions and manifestations …the tool is very flexible …written in XSLT»[ii]

    Exemple dans FictionFinder

FictionFinder

Une autre approche intéressante est celle des Bibliothèques de l’Université catholique de Louvain qui offrent un très joli exemple des possibilités d’utilisation des FRBR : on y distingue clairement les niveaux des 4 entités bibliographiques du groupe 1 inter-reliées:

Exemple-FRBR-Bibliotheques-Universite-catholique-Louvain

Ce sont là 2 exemples de FRBRisation (on prononce F R Brisation) i.e. le processus pour rechercher et dégager les entités FRBR à partir des notices cataloguées antérieurement et encodées selon d’autres schémas d’encodage, dans le cas qui nous occupe les notices cataloguées en AACR2 et encodées en MARC 21. Cette application demeure partielle mais dans la mesure où les données seront éventuellement enregistrées conformément à RDA, les résultats devraient être prometteurs.

On pourrait même évoquer la possibilité de placer des réservations pour les usagers au niveau de l’expression plutôt que de la manifestation comme maintenant : le titre voulu (peu importe l’édition) pourrait être obtenu beaucoup plus rapidement!!

On peut toutefois se demander, avec justesse, comme certains l’ont soulevé, si ce nouveau modèle n’est pas trop «performant» : le modèle semble très satisfaisant pour les oeuvres abondamment déclinées/éditées …mais excessivement détaillé pour les autres … auxquelles il peut néanmoins s’appliquer !! Ainsi les œuvres de fiction (surtout les «classiques») et les œuvres musicales profiteront pleinement des possibilités du modèle mais la majorité des titres, beaucoup moins. Comme dans tous les domaines, le principe de Pareto (ou la loi des 80/20) s’appliquera !! En effet, selon un estimé de Worldcat sur leur propre base de données de 40 millions de titres, environ 80% des notices bibliographiques n’ont qu’une seule manifestation par «œuvre» . Ce qui n’empêchera naturellement pas de profiter des autres avantages du nouveau code tels que décrits plus haut …

Certains prétendent même que  «RDA (are) the coming cataloguing debacle» !! En effet selon M. Michael Gorman, «this is the witche’s brew of ignorance, neophilia, and the exaltation of theory over practice that given birth to the draft Resource Description and Access». Selon M. Gorman, il n’existe aucune raison d’abandonner la structure des chapitres des AACR2 selon les différents genres de document et de ne plus utiliser systématiquement les ISBD qui sont acceptées à travers le monde. De plus, à son sens, les RDA sont un désastre éditorial et les instructions de cette norme «display a massive confusion». Et c’est signé M. Michael Gorman, University Librarian Emeritus, First editor, Anglo-American Cataloguing Rules, Second Edition 1978-1988.

Demain, dans la dernière partie : Les catalogueurs et les RDA.


[i] OCLC. FictionFinder : A FRBR-based prototype for fiction in WorldCat. http://www.oclc.org/research/activities/fictionfinder/default.htm

[ii]Library of Congress. Network Development and MARC standards Office. FRBR Display Tool Version  2.0. http://www.loc.gov/marc/marc-functional-analysis/tool.html

Mot(s)-clé(s) associé(s) à cet article :
oct - 2012 02

(Lire la 1ère partie)

Comment ça marche ?

«En gros, les FRBR organisent les différentes composantes de la description bibliographique (les autorités, les accès sujet et les informations physiques sur le document proprement dites) en trois groupes d’entités reliées ensemble par des relations.

Le 1er groupe d’entités regroupe tout ce qui concerne les documents et leurs différentes versions. Ces entités sont (de la plus abstraite à la plus concrète)»[i] :

  • Œuvre : une création intellectuelle ou artistique déterminée (par exemple : Germinal (dans la tête !) d’Émile Zola).
  • Expression : une réalisation de cette création intellectuelle (par exemple, la traduction anglaise de Germinal par Roger Pearson ou même le texte manuscrit original de l’œuvre !).
  • Manifestation : la matérialisation d’une expression (par exemple, la traduction anglaise de Germinal par Roger Pearson et publié chez Penguin Books en 2004 qui porte le ISBN 0140447423). La manifestation est, en gros, ce qui correspond le plus aux notices bibliographiques actuelles dans nos catalogues.
  • Item (ou Document) : un exemplaire précis d’une manifestation (par exemple celui qui porte le code barres 30010003948828 à la Bibliothèque de Saint-Laurent).

Ainsi :

Œuvre (une création intellectuelle déterminée)

trouve sa réalisation dans

Expression (la réalisation intellectuelle  d’une œuvre)

se concrétise dans

Manifestation (la réalisation physique de l’expression d’une œuvre)

est représenté par

Item (un exemplaire précis d’une manifestation)

Ce que permettra éventuellement l’application pratique de ce concept, c’est une navigation beaucoup moins linéaire, des résultats de recherche moins énumératifs et hétéroclites soutenus par des menus qui livreront une vision d’ensemble d’une œuvre et les relations qui se tissent entre cette œuvre et ses manifestations concrètes.

Le second groupe d’entités correspond aux «autorités» : personnes, collectivités (dont familles).

Le troisième groupe regroupe des entités qui sont le «sujet» de l’œuvre : concept, objets, lieux et événements.

noname

Nous avons donc 10 entités distinctes (les 10 rectangles) divisées en 3 groupes. Les relations entre les groupes sont indiquées par les flèches. Chaque entité possède aussi ses attributs ou caractéristiques :

FRBR-groupe-1
FRBR-groupe-2-et-groupe-3

Pour «illustrer» les différentes entités du groupe 1, pourquoi pas Dracula ? :

Ces entités et les relations qu’elles établissent entre elles tendent à répondre aux 4 grands besoins des utilisateurs :

Trouver les ressources qui correspondent aux critères de recherche

(je cherche le titre Robinson Crusoë) —» Oeuvre

Identifier une ressource qui correspond à celle recherchée

(je veux une traduction française et non le texte original) —» Expression

Choisir une ressource qui soit en adéquation avec ses besoins

(en format de poche si possible ex. : Folio) —» Manifestation

Obtenir la ressource décrite

(je vais aller emprunter l’exemplaire de Saint-Michel, c’est tout près)—» Item

Les FRBR créent une structure de base pour satisfaire à ces besoins en proposant la possibilité de collationner les documents au niveau des œuvres et expressions.

Exemples :

  • Relier ensemble les différentes éditions, traductions et formats d’une œuvre
  • Relier les cotes et vedettes-matière aux «notices» de l’œuvre ou de l’expression et ainsi éviter la répétition de l’information dans les notices bibliographiques (voir schéma ci-dessus la relation possible entre Groupe 3 et Groupe 1)
  • Relier entre eux les fichiers d’autorité à l’échelle mondiale et reconnaître ainsi le besoin de l’utilisateur de lire les vedettes dans sa langue (utile quand on sait que la forme acceptée ici de l’autorité pour l’Orchestre national de Vienne est plutôt Niederösterreichisches Tonkünstlerorchester!!). À cet égard le projet de VIAF (Virtual International Authority File/Fichier d’autorité
  • international virtuel) offre des perspectives intéressantes.

Il faut bien voir que les AACR2 ne sont pas pour autant jetées par-dessus bord, de même que le format MARC. RDA reprend les points forts des AACR2 au niveau de la logique mais laisse de côté ses aspects parfois arbitraires (la fameuse règle de trois), sa terminologie parfois désuète, ses limitations au niveau du nombre d’accès (fiches obligent !!), son manque de convivialité (abréviations latines et autres) et ses règles parfois un peu … absconses. Les anciennes notices seront compatibles avec les nouvelles et le format MARC pourra tout à fait s’y intégrer. Les RDA étant une norme de contenu et non d’encodage, la possibilité de s’ouvrir éventuellement à plusieurs formats d’encodage ou normes de métadonnées est implicite: MARC, Dublin Core, MODS (Metadata Object Description Schema), ONIX (ONline Information eXchange : format d’échange entre éditeurs) etc. et ainsi permettre d’intégrer les notices bibliographiques des bibliothèques à celles produites par d’autres communautés de métadonnées, et aller au-delà des catalogues des bibliothèques dans l’environnement numérique commun.

De plus, nous pouvons remarquer que la traditionnelle notion de «titre uniforme[iii]» n’est pas très loin de la notion FRBR d’«œuvre»!. D’ailleurs très récemment, «dans une perspective de FRBRisation de ses catalogues, la Bibliothèque Nationale française (BnF) a engagé une réflexion sur les accès titres uniformes de différents types d’œuvre»[iv]

Demain dans la 3e partie : RDA et la FRBRisation des catalogues.


[i] Manue. Les FRBR, qu’est ce que c’est ? http://www.figoblog.org/document594.php

[ii] Peponakis, Manolis; Sfakakis, Michalis; Kapidakis, Sarantos. FRBRisation : utiliser les zones de lien UNIMARC pour identifier les Œuvres. p.2. http://conference.ifla.org/past/ifla77/187-peponakis-fr.pdf,

[iii] «Titre conventionnel collectif qui sert à regrouper les publications d’un auteur, d’un compositeur ou d’une collectivité, lesquelles comportent plusieurs oeuvres ou des extraits, etc., de plusieurs œuvres…» RCAA, Éditions ASTED, 2000, p. 786.

[iv] Bibliothèque Nationale de France. Catalogage et indexation. http://www.bnf.fr/fr/professionnels/catalogage_indexation.html

Mot(s)-clé(s) associé(s) à cet article :
oct - 2012 01

cataloging the lost art«… à la même heure, sur les mêmes livres, avec les mêmes règles, quelques centaines de bibliothécaires tirent la même langue. » Armand Lapalus

Tapez RDA dans le moteur de recherche de Messieurs Page et Brin : juste après feu la République Démocratique Allemande mais bien avant le Riding for the Disabled Association au Royaume-Uni, les Ressources : Description et Accès ont «monté» en pertinence régulièrement depuis les dernières années. Cependant dans le domaine relativement stable et conservateur du catalogage et de ses règles, il n’y en a présentement que pour ce nouveau phénomène. RDA est la nouvelle norme de catalogage destinée à remplacer dès 2013 nos bonnes vieilles Règles de Catalogage Anglo-Américaines 2e édition/Anglo-American Cataloguing Rules 2nd ed. (RCAA2/AACR2).

Petite histoire du catalogage

Toutefois, ce RDA est dans l’air depuis de très nombreuses années. Mais reprenons au début, enfin presque. L’année 1967 est mémorable à plus d’un titre : le métro fait ses premiers allers-retours sous la métropole et l’Expo 67 braque les feux du monde entier sur Montréal. Mais dans le domaine des bibliothèques, la parution des AACR (Anglo-American Cataloguing Rules) sous des textes distincts aux États-Unis et en Grande-Bretagne  marque une étape importante dans le domaine du catalogage. Ce texte de règles précises est sous tendue par les grands principes du catalogage avec le document «en main» et l’établissement du concept de «source principale d’information».

L’année suivante marque aussi une étape importante pour le catalogage : en effet en 1968 le codage des informations bibliographiques en format MARC (MAchine Readable Cataloging), un format d’encodage et de communication, permettra de transmettre et de recevoir plus facilement les notices en format lisible par machine.

Une 2e édition des AACR en 1978 unifie les 2 publications anglophones et les rend compatibles avec les règles de l’ISBD (International Standard Book Description) utilisées encore aujourd’hui pour consigner les éléments descriptifs fondamentaux selon un ordre précis et une ponctuation définie : bahh … ces catalogueurs avec leurs espaces, leurs points et leurs virgules !! Mais ne négligeons pas les immenses bénéfices d’une normalisation de la présentation des notices bibliographiques.

Bien sûr avant cela, Sir Anthony Panizzi du British Museum (le «Keeper of Printed Books») avait publié en 1841 ses «91 Rules for the Compilation of the Catalogue» qui illustrent une brillante (et controversée) idée à l’époque : plutôt que de constituer un simple inventaire des titres de la bibliothèque du British Museum, faire plutôt un catalogue qui serve de guide pour accéder aux ressources de la bibliothèque en uniformisant les formes d’auteurs et en donnant des accès sujet !! Ensuite M. Charles Ammi Cutter (oui oui … l’inventeur des … chiffres Cutter !!) publie en 1876 ses «Rules for a Printed Dictionary Catalogue». Dans l’introduction de son célèbre texte, Cutter «explains, in some of the most quoted words in library history, what a catalog is for and how it should work.

Objects

1. To enable a person to find a book of which either

(A) the author is known

(B) the title is known

(C) the subject is known

2. To show what a library has

(D) by a given author

(E) on a given subject

(F) in a given kind of literature.

3. To assist in the choice of a book

(G) as to its edition (bibliographically).

(H) as to its character (literary or topical).

Means

1. Author-entry with the necessary references (for A and D).

2. Title-entry or title-reference (for B).

3. Subject-entry, cross-references, and classed subject table (for C and E).

4. Form-entry and language-entry (for F).

5. Giving edition and imprint, with notes when necessary (for G).

6. Notes (for H).»[i]

Ce programme servira de base à toute la théorie du catalogage actuel (avec les AACR) et contient déjà, en germe, les notions «d’objets» et de «relations» à établir entre eux pour mieux satisfaire les besoins des usagers de l’information.

Pour une vision détaillée de ces importantes étapes et leurs rapports avec une notion aussi moderne que les RDA, la lecture de cette [très] intéressante histoire est suggérée de même que ce clair survol.

En 1978, donc, les RCAA2 sont publiées : elles offrent un standard robuste qui pourra aussi s’adapter à la description éventuelle de nouveaux types de documents audio-visuels alias les «non-books» ; elles intègrent les grands principes de catalogage internationaux (Les principes de Paris) et offrent une meilleure cohérence par rapport aux codes précédents.

Toutefois il est important de réaliser que «the heart and soul of the Anglo-American Cataloguing Rules is the book. Books with a title and a statement of responsability clearly displayed on the chief’s source of information : which on the book is the title page. A book will usually have a straight-forward title, a clearly stated statement of responsibility (i.e. an author or two), a familiar publisher, with standard paging, perhaps some illustrations, bibliographic references, etc. This is what AACR was designed to describe and it does it well»[ii]

Ainsi le traitement des «non-books» se fait toujours à travers la lentille des livres. Mais ce ne sont pas des livres! : où est la page de titre et où est le titre ? Sur un DVD, doit-on le chercher sur la jaquette, sur l’étiquette du disque lui-même, sur l’écran puisque le document est essentiellement visuel ?? Sur un CD, le trouve-t-on sur le livret, le dos, l’étiquette ? Et s’il varie d’un endroit à l’autre ?

Il ne faut aussi pas perdre de vue le contexte de l’époque : les petites fiches 3 X 5 sont de mise comme supports des notices bibliographiques, elles sont insérées dans des tiroirs et des meubles qui occupent des murs complets. Ici à la Bibliothèque de Montréal, les techniciennes devaient consacrer une journée semaine simplement pour les classer et on ne parle pas des lourdes conséquences à corriger une simple faute d’orthographe sur une fiche dont on dactylographie des dizaines de copies qu’on doit ensuite remplacer !!

Pendant ce temps, les OPAC proposent leurs premiers affichages à l’Ohio State University (1975) et à la Dallas Public Library (1978) ; on est toutefois loin des interfaces graphiques qui n’apparaîtront que vers le début des années 1990. Les premiers OPAC sont en mode caractère, sur un terminal dédié ou sur Telnet, confinés dans une seule bibliothèque et reproduisent fidèlement les fiches de catalogues qu’elles ont l’intention de remplacer!

Des mises à jour successives en 1988, 1998 et 2002 donnent aux RCAA2 plus d’actualité mais ces mises à jour demeurent «réactives» : elles interviennent après-coup afin de régler les problèmes posés par l’apparition de nouvelles ressources et même de nouvelles réalités. De plus en plus le besoin se fait sentir d’examiner mieux les principes sous-jacents aux Règles, d’évaluer les nouveaux types de média, les ressources numériques et l’évolution des technologies dans l’environnement Web. On se rend bien compte que la division des chapitres des RCAA2 en genres particuliers de documents (chapitre 5 Musique, chapitre 6 Enregistrement sonore, etc.) amène des incohérences dans l’application des règles notamment quand un nouveau type de document présente des caractéristiques propres à plusieurs chapitres. Par exemple, les ressources électroniques à distance qui exigent  l’utilisation du chapitre 9 (ressources électroniques) et de n’importe quel des chapitres précédents selon le contenu principal de la ressource : texte, carte, enregistrement sonore ou vidéo, etc.

Ce problème du contenu par rapport au support reste une des grandes faiblesses des RCAA2 ; ainsi RCAA2 propose de décrire comme un «ensemble multi-supports» un document constitué de divers genres de supports sans composante prédominante alors que la Library of Congress ne retient aucunement cette notion en indiquant que le catalogueur doit choisir une composante comme étant prédominante et traiter le(s) autre(s) comme matériel d’accompagnement. Aucune notice américaine (Library of Congress) n’est traitée en notice d’ensemble multi-support («kit») alors qu’au Canada si ; pourtant nous utilisons le même code de catalogage !!

L’absence de cadre théorique comme source de référence lorsque confronté à l’inondation d’information plombe aussi sérieusement le recours aux AACR2 qui présentent des règles claires mais parfois peu adaptables aux nouvelles réalités numériques ou autres.

Il est donc temps semble-t-il de passer et de penser à autre chose car

«Today things are vastly more complicated:

  • Cataloging costs money and takes time. Sharing cataloging records will save both, if everyone can agree on how to catalog things the same way.
  • Electronic resources (on computers) are hard to catalog and manage, and not always easy to make available.
  • Everything comes in many formats, and they’re hard to catalog, manage, and make available, too.
  • There’s more of everything.
  • Technology is changing how libraries work, what they have in their collections, and what users need and expect.»[iii]

Une meilleure compréhension et vision de l’organisation de l’information est maintenant nécessaire. Dès le début des années 90, l’IFLA (International Federation of Library Associations) publie des documents importants qui influenceront l’avenir des AACR2. En 1991 un groupe d’experts formé par cette fédération est mandaté pour définir, a priori, les «Functional Requirements for Bibliographic Records» (FRBR) ou «Spécifications Fonctionnelles des Notices Bibliographiques» «en prenant en compte les différents supports, les différentes utilisations, et les différents besoins des utilisateurs. L’étude devra balayer la totalité des fonctions assignées à la notice bibliographique dans l’acceptation la plus large du terme, à savoir une notice qui ne se limite pas à des éléments descriptifs, mais qui contient également des éléments d’accès (noms, titres, sujets, etc.), d’autres éléments structurants (classification, etc.) et des notes»[iv]. On veut donc parvenir à une modélisation des informations contenues dans les notices bibliographiques et des relations qu’entretiennent ces informations.

Ce groupe travaille durant 6 ans, fait appel à des experts dans tous les domaines afférents (chercheurs, éditeurs, bibliothécaires, concepteurs de systèmes documentaires, libraires, utilisateurs d’information de toute sorte) et publie en 1998 son rapport final.

Ce modèle est construit selon la méthodologie dite «entité-relation» très utilisée dans la constitution des bases de données relationnelles. Ce modèle compte trois composantes fondamentales:

  • entités
  • attributs des entités
  • relations entre les entités.

Dans la même foulée seront aussi publiées en 2009, les FRAD (Functional Requirements for Authority Data / Fonctionnalités requises des données d’autorité) qui s’appuient sur des principes semblables aux FRBR mais appliquées aux données d’autorité.

Le Joint Steering Committee for Revison on AACR2 (JSC) qui s’occupe depuis plusieurs années déjà des mises à jour ponctuelle des AACR2 (1988, 1998, 2002, 2005) recrute en 2003 M. Tom Delsey, un canadien, comme rédacteur en chef et responsable intellectuel d’une révision de plus grande ampleur des AACR2 afin de passer aux AACR3. Et ce M. Delsey est … le rédacteur principal des FRBR !

Les AACR3 ne verront cependant pas le jour car «un premier projet de texte a été soumis à l’examen des associations professionnelles et des institutions du monde entier en décembre 2004. Ce premier projet a suscité de très vives critiques, qui ont montré qu’une révision encore plus profonde des AACR était attendue. En avril 2005, le JSC a donc annoncé le lancement d’un chantier plus vaste et la préparation d’un code de catalogage entièrement renouvelé qui ne porterait plus le même nom. Les AACR, apparus en 1967, cesseront d’exister sous cette appellation et laisseront la place au nouveau code intitulé : Resource Description and Access (RDA).»[v]

À lui seul, le nom du nouveau code annonce ses couleurs :

  • exit le «Anglo-American» : le code se veut international dans sa (ses) langue(s) et sa visée.
  • exit le «cataloguing» : la description des ressources est commune à toute la communauté qui s’occupe d’information, pas uniquement les bibliothèques.
  • exit les «rules» : les règles rigides font place à des directives basées sur un cadre théorique ayant une plus large applicabilité et centré sur l’utilisateur.
  • même le ISBD en prend pour son rhume : en annexe (facultative) seulement des RDA, on trouve les indications sur la présentation des données. L’accent est mis sur l’information requise pour décrire une ressource et non sur la manière de présenter cette ressource.

Mais surtout ce nouveau code a aussi son fondement théorique celui-là même qui faisait cruellement défaut aux AACR et AACR2 ; en l’occurrence il s’agit des «FRBR» publié sept ans auparavant, en 1998 et celui des FRAD quelques années plus tard. Il s’agit là d’une «Radically Different Approach»[vi]

Demain, la 2e partie : Comment fonctionne les RDA.


[i] Denton, William. FRBR and the history of cataloging. p.40 http://pi.library.yorku.ca/dspace/bitstream/handle/10315/1250/denton-frbr-and-the-history-of-cataloging.pdf?sequence=1

[ii] Knight, Tim. Cataloging rules! The road to RDA. p.2 http://pi.library.yorku.ca/dspace/bitstream/handle/10315/2550/RDA_TALL_2009_final.pdf?sequence=1

[iii] Denton, William. FRBR and the history of cataloging. p.50 http://pi.library.yorku.ca/dspace/bitstream/handle/10315/1250/denton-frbr-and-the-history-of-cataloging.pdf?sequence=1,

[iv] Fédération internationale des associations de bibliothécaires et des bibliothèques. Fonctionnalités requises des notices bibliographiques. p.7. http://www.bnf.fr/documents/frbr_rapport_final.pdf,

[v] Bibliothèque Nationale de France. Ressources : Description et accès (RDA). http://www.bnf.fr/fr/professionnels/rda/s.rda_origines.html

[vi] Oliver, Chris. FRBR et RDA : Progrès dans la description des ressources de divers formats, Mars 2009, p.58. http://www.collectionscanada.gc.ca/obj/005002/f2/005002-2200-f.pdf

Mot(s)-clé(s) associé(s) à cet article :
juil - 2012 24

Ancienne image d'accueil de Facebook avec les continents.

Il y a deux semaines, j’ai découvert l’effet que peut avoir la propagation virale sur le web et plus précisément sur Facebook.

Tout a commencé le mardi 10 juillet quand j’ai publié une photo de Livres dans la rue sur la page Facebook des Bibliothèques de Montréal. À ce moment, je poursuivais mes expérimentations avec la page en publiant une photo accompagnée d’un lien dans la description plutôt que de partager le lien directement sur Facebook.

À 12h05, la page Facebook Improbables Librairies, Improbables Bibliothèques, qui rassemblait à ce moment plus de 20 000 fans mais qui en a maintenant plus 25 000, partage la photo de Livres dans la rue. Par la suite, elle partage des photos qui se trouvent sur notre page depuis plusieurs mois. À commencer par deux photos de la série sur l’exposition « Le livre des lecteurs ». Ainsi qu’une photo du Biblio-BIXI qui se trouvait sur la page Facebook des Bibliothèques de Montréal depuis septembre 2011.

biblio-BIXI

La suite sera une démonstration de l’effet viral que peut avoir le partage de contenu sur le web ou sur les médias sociaux.

En une semaine, la photo sera partagée environ 300 fois et fera le tour du monde d’un réseau à un autre. Les statistiques officielles de notre page Facebook indiquent que c’est presque 50 000 personnes qui ont été atteintes dans la semaine du 9 au 16 juillet 2012.

La leçon que je retiens de cet épisode dans la gestion des médias sociaux, c’est l’importance de laisser une trace sur le web. Qu’on ne sait jamais qui va voir notre contenu et le partagera dans son réseau.

Plusieurs bibliothèques possèdent déjà des comptes sur les médias sociaux, nos bibliothèques montréalaises aussi. C’est très bien, mais on doit investir encore plus le web. Il faut développer le réflexe de documenter nos activités de façon créative pour que la prochaine fois qu’une personne souhaite partager nos bons coups, elle puisse le trouver sous forme de textes, images, vidéo, audio.

Soyons proactifs et n’attendons pas qu’on parle de nous dans d’autres médias, car les outils sont là pour être utilisés.

Mot(s)-clé(s) associé(s) à cet article :
juin - 2012 11

Image Obsolescence avec crédits

Vous ne pouvez plus ouvrir votre ordinateur ultra portable pour changer votre batterie au risque de perdre votre garantie? Votre imprimante vous demande de la nourrir alors que vous lui avez servi une nouvelle cartouche quelques semaines auparavant? Vous voulez réactiver votre téléphone encore très intelligent, mais on vous propose plutôt un abonnement de trois ans avec un appareil tout neuf?

 Bienvenue dans l’obsolescence programmée des TIC (technologies de l’information et des communications). L’effet de mode, la faible qualité des produits, les mises à niveau compliquées, coûteuses ou impossibles, réduisent la durée de vie des TIC et découragent la réduction à la source, la réutilisation et le recyclage. À ce jeu, seuls les technos les plus aguerris peuvent déjouer le modèle. Ainsi il en va de la couche « matérielle ».

 Or il s’en cache une autre, la couche « logicielle », autrement dit la programmation d’un logiciel. Les programmes sont maintenant tellement lourds qu’on parle d’obésité logicielle, un joueur majeur dans l’obsolescence des TIC :

Puce TIC s'éteint Les développeurs ne réécrivent pas les programmes à chaque nouvelle version, mais ajoutent de nouvelles fonctionnalités. Cette façon de faire, plus économique que la réécriture, crée une obésité logicielle coûteuse et insoutenable, si l’on considère que la majorité des fonctionnalités ne sont pas utilisées.

Puce TIC s'éteint La performance, le nombre de calculs par kWh et les exigences en espace mémoire doublent tous les 18 mois depuis au moins 40 ans. Les nouveaux logiciels nécessitent donc plus d’espace de mémoire et des microprocesseurs toujours plus puissants, du simple au double à chaque nouvelle version, « si bien qu’en 25 ans, la durée moyenne d’utilisation d’un ordinateur a été divisée par 3, passant de 10 à 3 ans [i]». Le passage de Windows ­­­­­XP à la version Vista ou 2010, par exemple, a obligé des milliers d’organisations à remplacer leurs ordinateurs, les parcs informatiques étant plus difficiles à sécuriser lorsque les appareils n’ont pas tous la même capacité de support.

 Puce TIC s'éteint Prêt-à-jeter, une excellente vidéo produite par ARTE, explique la fin de vie des  TIC et ses contreparties, l’obsolescence programmée et la surconsommation.

Le logiciel libre

Pour pallier l’obésité logicielle et le coût financier qui l’accompagne, l’équipe de soutien informatique aux bibliothèques a recours aux logiciels libres dans plus de cas qu’on ne le croit. Sur les postes Internet publics des bibliothèques, ces logiciels non-propriétaires (dont le code source est ouvert), permettent, entre autres, de :

  • lire des documents PDF
  • faire des échanges informatiques de fichiers sur un réseau TCP/IP
  • naviguer dans le Web
  • travailler dans un traitement de texte équivalent à Word

 Bien qu’en l’état actuel ils ne conviennent pas aux usages les plus spécialisés, les logiciels libres présentent des avantages bien réels pour les utilisateurs conventionnels. Ils sont sans coût de licence, ne comportent pas de verrou propriétaire, bénéficient d’un développement et d’un soutien technique solides du fait qu’ils sont l’œuvre d’une communauté de contributeurs, et les mises à jour utilisent le matériel et les périphériques existants (pas besoin d’augmenter la puissance de l’ordinateur chaque fois). Ils présentent un autre aspect primé par les services « sensibles » de la Ville, la sécurité, puisqu’ils ne sont menacés, pour l’instant, par aucun logiciel malveillant.

 Que faire?

L’une des façons phares d’influencer le cours du développement logiciel est de dicter patiemment au marché ses préférences, au moyen du plus puissant outil dont disposent les pouvoirs publics : les politiques d’approvisionnement et les appels d’offres, particulièrement dans les achats groupés.


[i] http://www.greenit.fr/article/acteurs/green-code-lab-une-pepiniere-de-green-design-patterns

 

Mot(s)-clé(s) associé(s) à cet article :
juin - 2012 07

Image composite TIC s'éteint 

Pour y répondre, suivons la vie d’une TIC (une technologie de l’information et des communications), du berceau au boulot.

Au berceau : matières premières et fabrication

Un ordinateur peut exiger jusqu’à 100 fois sa masse en matières premières alors qu’une automobile ou un réfrigérateur en requiert du simple au double. La masse de matières extraites pour en dégager les quelques grammes de métaux qui entreront dans sa fabrication se chiffre en tonnes. Ajoutons à cela, pour un PC et un écran de 17 po (1), 1500 litres d’eau potable ou stérilisée (surtout pour la fabrication), 22 kg de produits chimiques et 373 litres de pétrole (2). Un seul circuit intégré (une puce), pesant 2 g et mesurant 0,16 micromètre, requiert 1200 g de combustible fossile, 1 m3 d’azote, 72 g de produits chimiques et 32 litres d’eau.

Côté déchets, la fabrication en génère 164 kg pour le même ordinateur avec écran de 17 po, dont 15 % (le poids de l’ordinateur) sont des substances hautement toxiques. L’énergie (généralement) fossile utilisée totalise 10 fois le poids de l’équipement en équivalent carbone.

Au boulot : l’utilisation dépend des besoins et [surtout] des comportements

Puce TIC s'éteint C’est à l’utilisation que les impacts indirects et organisationnels des TIC influent le plus sur la société, l’environnement et l’économie :

Puce TIC s'éteint Le mode utilisation accapare jusqu’à 60 % de l’énergie totale du cycle de vie d’une TIC. Un appareil qui n’est pas mis en veille est très énergivore, quelle que soit la source d’électricité. Plus un écran est grand, plus il consomme.

Puce TIC s'éteint Un ordinateur portable consomme 50 % moins d’électricité qu’un ordinateur fixe, mais il est moins évolutif.

Puce TIC s'éteint Le mode veille consomme environ 10 % de l’énergie totale de la durée de vie d’un appareil. S’il est mis en veille mais jamais éteint, cet appareil consommera de 10 % à 25 % de la facture d’électricité. En France, où l’énergie est nucléaire, on évalue que la consommation annuelle des appareils en veille dans les maisonnées équivaut à la production de deux réacteurs nucléaires (3). Au Canada, la mise en veille permanente des appareils électriques, avec son cortège de voyants lumineux, représente la consommation électrique annuelle du Nouveau-Brunswick (4).

Puce TIC s'éteint Ne pas confondre la mise en veille avec l’écran de veille ou économiseur d’écran. Ce dernier ne permet pas d’économiser l’énergie.

Puce TIC s'éteint En bibliothèque, les serveurs, les ordinateurs de comptoirs, les OPAQ et les postes Internet, ainsi que certains appareils programmés, doivent, pour l’instant, rester ouverts jour et nuit. Tous les autres appareils, par contre, pourraient être éteints le soir. L’écran, par exemple, s’éteint d’un seul clic. Les lecteurs de code à barres et autres périphériques branchés directement dans l’ordinateur se ferment à l’arrêt de celui-ci. Il suffit de 30 à 60 secondes en moyenne pour démarrer le système et de 30 à 60 secondes pour ouvrir Lotus. Deux minutes. Le temps d’enlever son manteau, d’aller chercher un café ou d’en griller une. La fin de semaine et au départ des vacances, pas d’excuse pour ne pas éteindre son ordinateur et ses périphériques.

Puce TIC s'éteint Même éteint, un appareil électrique consomme de 2 à 22 Watts/h. Un portable consomme jusqu’à 17 Watts/h, l’imprimante 7 Watts/h, le décodeur numérique 15 Watts/h et le téléviseur 5 Watts/h.

Puce TIC s'éteint Selon l’Office de l’efficacité énergétique, la seule façon d’être assuré qu’un appareil ne consomme pas d’électricité est de le débrancher ou de fermer la barre de tension sur laquelle il est branché. Plutôt difficile à faire au travail, mais à la maison, on peut brancher l’ordinateur et ses périphériques sur une multiprise munie d’un interrupteur, qu’il suffit d’éteindre le soir, durant les vacances ou les absences prolongées. Il existe des barres d’alimentation intelligentes dotées de prises indépendantes, qui permettent de regrouper des appareils informatiques (ou même ses petits électroménagers), y compris les appareils programmés qu’on ne peut pas débrancher, tel que les enregistreurs numériques. Il en existe même avec minuterie : le débranchement se fait alors tout seul.

La réponse

Donc, en réponse à la question, on peut répondre que cela dépend de nous…. de combien de centrales électriques nous avons besoin pour satisfaire à la demande énergétique du type d’utilisateur que nous sommes.  Devons-nous absolument garder les voyants de nos écrans, imprimantes personnelles, agrafeuses et étiqueteuses électriques allumés en tout temps? Si le coût et les impacts sont plutôt insignifiants à l’échelle d’un espace personnel de travail ou d’un logis, on n’a qu’à les reporter à l’échelle d’une population pour en saisir l’énormité.

Bonnes vacances !  N’oubliez pas d’éteindre.       


[1] Computers and the Environment : Understanding and Managing their Impacts, 2003, sous la dir. de Ruediger et Eric Williams, Kluwer Academic Publishers, EcEfficiency in Industry and Science Series, Dordrecht/NL, 300 p.

[2] http://www.electronicstakeback.com/green-design-vs-greenwashing-2/

 [3] L’ADEME — l’Agence de l’Environnement et de la Maîtrise de l’Énergie de France — fournit, sous forme de tableaux, des exemples d’appareils consommant de l’énergie tout en étant arrêtés ou en mode d’attente. Très informatif. http://www.ademe.fr/lorraine/energie/mde.html

[4] http://vieenvert.telequebec.tv/sujets/588/debrancher-pendant-2-semaines

Mot(s)-clé(s) associé(s) à cet article :
fév - 2012 07

Donnez-leur un ordinateur, ils en feront un métier, une salle de jeu, une boîte aux lettres, tout sauf un aquarium.

Les analyses de cycle de vie nous apprennent que les solutions les plus viables, les plus rentables et les moins coûteuses pour réduire les impacts sociaux et environnementaux des TIC1sont la réutilisation et le reconditionnement2. De toutes les TIC récupérées, celles provenant des institutions (comme les municipalités) ont la plus haute valeur de revente. Le tableau ci-dessous montre que, même dans le pire des scénarios de reconditionnement, où l’appareil ne serait pas recyclé à la fin de sa seconde vie, le reconditionnement est de quatre à neuf fois moins dommageable que le recyclage direct, autrement dit, que l’enfouissement technique ou la récupération des matières premières après un premier utilisateur3. Le calcul des impacts est fondé sur l’évitement de la production d’un ordinateur neuf.

Comparaison des  dommages selon quatre scénarios de fin de vie d’un ordinateur

clip_image002

CIRAIG et Groupe AGECO, Analyse du cycle de vie environnementale et sociale de deux options de gestion du matériel informatique en fin de vie, 2011, p.46. Source : http://www.recyc-quebec.gouv.qc.ca/.

Selon Monica Antoneli, les bibliothèques, en tant que partenaires d’autres organismes, doivent devenir plus engagées dans les processus décisionnels et l’élaboration de politiques publiques4.Un réseau de bibliothèques tel que le nôtre peut, en effet, imprimer sa volonté en matière de TIC vertes dans ce marché, et faire progresser le changement réel en faveur de TIC socialement et environnementa­lement responsables. C’est à cette fin que la Ville de Montréal a négocié une entente de récupération et de revalorisation avec OPEQ5 Ordinateurs pour les écoles du Québec.

L’entente avec OPEQ, profitons-en !

clip_OPEQ

La mission première d’OPEQ est d’offrir du matériel informatique performant, à peu de frais ou gratuitement, à des organisations publiques ou privées œuvrant dans le domaine de l’éducation, comme les bibliothèques. L’organisme trie et transforme en éco-TIC répondant parfaitement aux besoins de ses clients l’équipement dont se départissent les gouvernements et les entreprises. Il détourne ainsi des milliers de tonnes de matière polluante des dépotoirs. Environ 1000 jeunes ont acquis une expérience de travail dans les ateliers d’OPEQ, qui a distribué 180 000 ordinateurs et 14 000 imprimantes depuis 1998. Étant donné que 90 % du matériel provenant des secteurs commercial et institutionnel ont une bonne valeur de revente ou de réutilisation, on comprend que le tri préalable effectué par les techniciens des services informatiques constitue la pierre angulaire de la filière. À la Ville de Montréal, ce tri repose sur la charte de désuétude révisée chaque année par le Service des technologies de l’information.

Marche à suivre

Particuliers

Tous les particuliers qui souhaitent remettre leurs équipements informatiques à OPEQ peuvent le faire en les déposant dans les magasins Bureau en Gros participants.

Entreprises

Il suffit de remplir un court formulaire en ligne.  Il sera transmis automatiquement au Centre d’appels d’OPEQ, qui communiquera avec vous.

Ministères

Consulter les procédures distinctes pour ministères provinciaux et ministères fédéraux sur le site d’OPEQ

Bibliothèques de la Ville de Montréal

L’entente-cadre de récupération 557215 est ouverte à tous les arrondissements, profitez-en ! OPEQ peut même vous vendre à très bas prix des ordinateurs portables que vous pourriez prêter au comptoir.

Les consignes suivantes sont données à titre informatif. Vous devez toutefois consulter les documents de l’entente dans le WikiBM sous l’onglet Parc informatique/catégorie Récupération, Valorisation, Élimination du matériel informatique désuet, tels que l’entente, le formulaire à remplir,  la liste du matériel accepté par OPEQ et la procédure d’effacement des données, etc.

Les bibliothèques des ex-banlieues peuvent se prévaloir de l’entente comme suit :

  1. Dressez la liste du matériel dont vous désirez vous départir dans un document prévu à cette fin, et le faire parvenir à Bob Kruk (ce nom peut changer). Ce document intitulé Formulaire 8fev2011.xls est accessible dans le WikiBM. Il est présenté sous forme de modèle accompagné d’explications. Conçue pour des fins de traçabilité, cette formalité permet une utilisation optimale du matériel à l’échelle de la municipalité. Ainsi, si l’on se départit d’un appareil dans un service ou une bibliothèque d’un arrondissement ou aux services centraux, cet appareil peut être expédié dans un autre service ou bibliothèque du réseau où il y a un besoin. Cette réallocation des ressources informatiques a permis, par exemple, de récupérer une centaine d’écrans de 17 pouces presque neufs pour les bibliothèques du réseau.
  2. Une fois cette liste approuvée, demandez à votre service informatique de procéder à l’effacement des disques durs selon les directives de sécurité de la Ville de Montréal.  En guise de précaution, OPEQ reformate tous les appareils qu’il reçoit de la Ville. Les postes professionnels des bibliothèques, eux, sont récupérés par les techniciens de la Division de la planification et du développement du réseau.
  3. Ensuite, faites rédiger un dossier décisionnel (GDD) et faites-le valider par le conseil d’arrondissement (CA). Pourquoi un dossier décisionnel? Parce que la Ville verse une somme minimale forfaitaire pour chaque écran ou imprimante remis à OPEQ, couvrant les frais de transport, manutention et traitement. Ces frais sont assumés par la Direction de l’environnement et du développement durable.
  4. Une fois le GDD approuvé par le CA, faites parvenir la liste à OPEQ et prendre rendez-vous avec eux afin qu’ils ramassent les appareils désuets inscrits sur la liste).  OPEQ fait la cueillette sans frais pour des lots de 20 articles et plus. Vous n’avez pas assez d’articles ? Coordonnez les cueillettes avec d’autres bibliothèques de votre arrondissement en désignant un seul point de chute. Suggérez à vos techniciens informatiques d’arrondissement de faire l’inventaire du matériel inutilisé de votre arrondissement sur le même formulaire que le vôtre (un seul formulaire par point de cueillette). Si le volume est suffisamment intéressant, l’organisme peut aussi reprendre du matériel comme des métaux et des plastiques qu’elle revendra sur le marché à des entreprises de recyclage adéquates.

Les bibliothèques de l’ex-Montréal doivent :

  1. Dressez la liste du matériel dont vous désirez vous départir dans un document prévu à cette fin, et faites-la parvenir à Fabien Brunel qui l’acheminera à M. Kruk après vérification. C’est M. Kruk qui rédigera le sommaire décisionnel.
  2. Les anciens postes dotés de disques durs nécessitant un effacement sont récupérés par les techniciens de la Division de la planification et du développement du réseau. Vous n’avez pas à vous en préoccuper.
  3. Une fois le GDD approuvé par le directeur de la STI, un technicien de la Division de la planification et du développement du réseau s’occupera de planifier la cueillette de l’équipement avec vous et OPEQ.

Personnes ressources

Pour toute question concernant l’entente de récupération de la Ville avec OPEQ, communiquez avec M. Michel Provencher, au Service des technologies de l’Information (STI), au 872-5341, ou avec Mme Danielle Fortin, à la Direction de l’environnement et du développement durable, au 872-8987. Pour toute question concernant la procédure à suivre, communiquez avec Bob Kruk, au 280-6585. Pour toute question sur le type de matériel récupéré par l’OPEQ, communiquez avec Mme Maryse Lavoie de l’organisme OPEQ, au 514 870-8045.


1 Technologies de l’information et des communications (TIC)

2 ECPAR-Espace québécois de concertation sur les pratiques d’approvisionnement responsable, sous la coordination d’Édouard Clément, Jean-Pierre Revéret et Jean-Sébastien Trudel, Rapport de recherche : Pratiques d’approvisionnement responsable – Analyse des volets social, environnemental et économique, 2008. Disponible en ligne : http://www.ciso.qc.ca/wordpress/wp-content/uploads/ecpar_rapport_avril09.pdf

3 Le calcul des impacts est fondé sur l’évitement de la production d’un ordinateur neuf.

4 Monika Antonelli, « The Green Library Movement : An overview » EGJ, 12-08-2008, ET Frederick W.Stoss, « Sustainable Communities and the roles of librairies and librarians », Beyond et Reference and User Services Quarterly, vol.42,n°3, spring 2003.

5 Ordinateurs pour les écoles du Québec http://www.opeq.qc.ca/

La vidéo peut aussi être consultée sur [http://youtu.be/xkIWyP6HbAk] ou sur le  site de l’organisme.

Mot(s)-clé(s) associé(s) à cet article :