26.11.2008
środa

Konferencja „Polskie biblioteki cyfrowe”: dwie ważne statystyki o polskich zasobach

26 listopada 2008, środa,

Uczestniczyłem wczoraj w konferencji Polskie biblioteki cyfrowe 2008, organizowanej przez poznańskie PCSS. To pierwsza taka konferencja, ale nie ostatnia, gromadząca środowisko osób tworzących takie biblioteki, w dużej mierze o oprogramowanie dLibra – tworzone właśnie w PCSS.

Nie podejmuję, się jak zwykle, streszczenia tutaj całej konferencji, tym bardziej nie wierzę w przydatność „live bloggingu”. Organizatorzy na szczęście planują wydanie publikacje pokonferencyjnej (mam nadzieję, że trafi do Sieci).

Zaciekawiły mnie jednak dane z jednej prezentacji, zatytułowanej „Dobór publikacji w polityce zarządzania biblioteką cyfrową. Analiza wykorzystania zasobów bibliotek cyfrowych wspólnie przeszukiwanych w ramach FBC” (a przygotowane przez panie Elżbietę Skubałę i Annę Kazan z Biblioteki Głównej Politechniki Łódzkiej). Tytuł brzmi enigmatycznie – prezentacja obejmowała wyniki analizy wykorzystania i dostępności zasobów przechowywanych w polskich bibliotekach cyfrowych. Dzięki serwisowi FBC wiemy dokładnie, ile tych zasobów jest  (około 176 000 obiektów) – a dzięki analizom baz danych poszczególnych bibliotek możemy dowiedzieć się więcej.

Pierwsza ciekawa informacja dotyczyła stanu prawnego obiektów – brak dokładnych danych, ale wiadomo, że prawie 50% pochodzi z pierwszej połowy XX wieku, a około 20% z okresu po 1949 roku (pozornie dziwna data graniczna wynika stąd, że obiekty starsze bibliotekarze traktują jako chronione).

Co to oznacza? Że na pewno 20%, a zapewne bliżej 50% utworów przechowywanych w bibliotekach cyfrowych jest jeszcze objętych prawami autorskimi – przyjmując podstawową zasadę, że prawa wygasają w 70 lat po śmierci autora, a autor często żyje w chwili publikacji.

Jeśli tak jest, to musimy całkowicie zmienić myślenie o bibliotekach cyfrowych – traktowanych często jako przedsięwzięcia dotyczące jedynie domeny publicznej, ograniczone przez wymogi prawa, i przez to kolekcjonujące głównie archiwalia i starodruki o przydatności ograniczonej do dość wąskiej grupy zainteresowanych.

Tymczasem biblioteki cyfrowe najwyraźniej mają pokaźne kolekcje zbiorów nowych. Jest tego kilka wytłumaczeń – przede wszystkim są to zapewne materiały objęte prawami, udostępnione przez autorów na zwykłych zasadach (w tym część z technicznie ograniczonym dostępem, ograniczonym do określonych adresów IP). Jest też drobna ilość materiałów udostępnionych na wolnych licencjach. Wiele z nich to różnego rodzaju materiały edukacyjne, udostępniane studentom przez wykładowców (np. skrypty).

Druga informacja dotyczyła stopnia wykorzystania utworów. O ile brak dokładnych statystyk wykorzystania poszczególnych dzieł (a ciekawe byłoby zobaczyć, co jest naprawdę popularne i czy pojawia się – obstawiam że tak – „długi ogon”), autorki prezentacji szacują, że 10-16% utworów zamieszczonych w bibliotkach cyfrowych nie zostało nawet raz obejrzane. Podejrzewam, że istnieje duża pula utworów niemal niewykorzystanych, oraz równie spory zbiór materiałów popularnych.

To dla mnie dość szokująca statystyka, pokazująca, że albo trzeba więcej energii poświęcić na promocję tych zasobów, albo też inaczej dobierać materiały do skanowania. W sytuacji, gdy mamy w Polsce tak małe zasoby na dygitalizację, należy w pierwszej kolejności skanować dzieła najbardziej wartościowe. W sytuacji, gdy ta wartość nie jest oczywista, potencjalna liczba użytkowników jest jedyną dobrą miarą.

Gdy to powiedziałem na konferencji, pojawiły się następujące głosy: że archiwizuje się nie tylko dla obecnych pokoleń i może kiedyś będą to zbiory przydatne; że czasem warto coś udostępnić nawet jednej, odpowiedniej osobie – i że faktycznie biblioteki skanują materiały na zamówienie pojedynczych osób; oraz że kierując się zasadą popularności trzeba uznać pornografię za najbardziej wartościowy rodzaj treści.

Zdaję sobie sprawę, że podstawowym czynnikiem ograniczającym dygitalizację naprawdę potrzebnych materiałów są prawa autorskie. Ale nie chce mi się wierzyć, że zostały już zeskanowane wszystkie materiały, które znajdą więcej niż kilku czytelników.

Myślę, że dobrym krokiem byłoby stworzenie rodzaju „giełdy dygitalizacyjnej”, w której osoby zainteresowane mogłyby zgłaszać i głosować za dygitalizacją określonych tytułów – a w wersji zaawansowanej dodatkowo wspierać finansowo dygitalizację określonych tytułów. Pomogłoby to bibliotekom lepiej zrozumieć potrzeby, a dodatkową wartością byłoby zaangażowanie szerszego grona osób i zainteresowanie ich kwestią dygitalizacji.

Liczę też na dokładniejsze analizy polskich zasobów cyfrowych, które pozwalają obalić różne mity – jak np. ten, że biblioteki cyfrowe są pełne nieprzydatnych staroci.

Komentarze: 13

Dodaj komentarz »
  1. @To dla mnie dość szokująca statystyka (…) należy w pierwszej kolejności skanować dzieła najbardziej wartościowe. W sytuacji, gdy ta wartość nie jest oczywista, potencjalna liczba użytkowników jest jedyną dobrą miarą.

    Ani statystyka nie jest tak szokująca, ani decyzje tak proste.

    Ok. 60 procent zbiorów bibliotek współpracujących z FBC to wydawnictwa ciągłe – najczęściej ważne dla historii regionu (-ów) gazety, których stan prawny nie budzi wątpliwości, natomiast stan zachowania jest często dramatycznie zły. Najcieńsza część długiego ogona i to, co jest już poza ogonem, czyli obiekty z zerową statystyką, to głównie pojedyncze numery tego czy innego tytułu. Szokujące? Nie bardzo, bo przecież nikt nie czyta gazet jak powieści – od deski do deski.

    Jaki scenariusz byś wybrał? Eliminować mniej ciekawe numery czasopisma? :-) Zrezygnować z digitalizacji całego tytułu (za parę lat może się całkowicie rozsypać)? Zamiast niego zdigitalizować atrakcyjny stary druk, który trzeba poddać najpierw konserwacji za bardzo ciężkie pieniądze? (Obejrzą go setki osób, ale tak naprawdę też nikt nie przeczyta, bo jest po łacinie.) Podjąć zabiegi, żeby bez ograniczeń licencyjnych opublikować popularny skrypt dla studentów? Opublikować „coś z wieszczów”, co nie jest objęte restykcjami prawa autorskiego i będzie cieszyło się zainteresowaniem, ale istnieje w setkach papierowych egzemplarzy i w wielu wydaniach?

    Nie będę nawet próbował wyczerpać tematu, bo to nie jest odpowiednie, miejsce, ale naprawdę to nie jest proste jak pankowa piosenka. Co oczywiście nie znaczy, że nic się tu nie da poprawić. Giełda, którą proponujesz, mogłaby na pewno pomóc (jej namiastką są maile od użytkowników i posty na forum Biblioteka 2.0 – wszystkie traktowane z należytą powagą).

    W słodkich snach wyobrażam sobie bibliotekę cyfrową tak. Wpisuję w wyszukiwarce np. „Trzydzieści pięć lat pracuję przy starym papierze i to jest moja love story”, a w wynikach dostaję: Bohumil Hrabal, „Zbyt głośna samotność”, oczywiście pełny tekst :-), poza tym skany rękopisu, opracowania itd. Niestety, rzeczywistość jest mniej atrakcyjna i znacznie bardziej złożona.

  2. To nie jest tylko kwestia promocji, a architektury informacji bibliotek opartych o dlibrę.

    Te biblioteki są bardzo fajne jeśli chce się ich używać jak normalnej biblioteki – tj. przy zachowaniu „known item search” – wie się czego się szuka, korzysta się z wyszukiwarki – wszystko działa.

    Ale jeśli chce się po prostu „palcem po grzbietach” polatać, to bywa trudniejsze, np. mamy kategorię z setkami tekstów, które możemy tylko przeskakiwać strona po stronie.

    Biblioteki muszą wyjść z klatki w którą wpędza je założenie, że oto przychodzi naukowiec szukający informacji naukowej. Bo równie dobrze może przyjść ktoś kto chce poczytać przedwojenne gazety z jego regionu, albo zobaczyć co jest naprawdę ciekawego z danej dziedziny (a nie przeglądać wszystkich pozycji). A zmiana założeń musi doprowadzić do zmiany w oprogramowaniu.

  3. Powiedzmy sobie od razu otwarcie, ze w Polsce nie istnieją biblioteki „cyfrowe”, a przynajmniej nie takie, które są dostępne dla zwykłego śmiertelnika. Jak słusznie zauważa ter, w sieci dostępne są zaledwie skanowane kopie książek, co jednak nie czyni ich „cyfrowymi”, tylko co najwyżej trochę lepszym mikrofilmem, dostępnym za pośrednictwem sieci. Dlatego tez wydaje sie, ze zwoływanie konferencji szumnie nazwanej Polskie Biblioteki Cyfrowe to gruba przesada. Dopóki nie można przeszukiwać tekstu materiału za pomocą wyszukiwarki, to nie będzie czegoś takiego, jak biblioteka „cyfrowa” i nadużywanie tego przymiotnika bardzo mnie drażni. To kpina z publiki, ale bibliotekarze czuja się dobrze bo maja w sieci „cyfrowa” bibliotekę. Takie „cyfrowe” biblioteki istnieją juz od kilkudziesięciu lat, tylko do tej pory trzeba było pofatygować się osobiście aby przejrzeć mikrofilm. Chyba pora zejść z wysokiego konia i zacząć faktycznie przetwarzać zwartość bibliotek w formie poddającej się możliwości przeszukiwania tekstu przez komputer.

  4. @Werbalista – Jak słusznie zauważa ter, w sieci dostępne są zaledwie skanowane kopie książek, co jednak nie czyni ich ?cyfrowymi? (…)

    Nic takiego nie zauważam, a tym bardziej „słusznie” :-)

  5. @werbalista
    myślę, że to jednak są biblioteki cyfrowe – choć masz rację, że można mówić o różnych poziomach cyfrowości – a optymalny jest ten, w którym w pełni można skorzystać z cyfrowego charakteru tekstu (na przykład swobodnie go przeszukując). Ale nawet skany dostępne w sieci moim zdaniem rewolucjonizują kwestię dostępu. Dodam jeszcze, ze system dlibra pozwala na pełnotekstowe przeszukiwanie – barierą są, z tego co wiem koszty, związane z korektą OCRu (która jest tym bardziej żmudna i kosztowna, im starszy zeskanowany tekst…).

    @ter
    miejsce może nie jest odpowiednie – mam więc nadzieję, że temat będzie kontynuowany w bardziej odpowiednich miejscach. właśnie dlatego, że – jak piszesz – decyzje nie są proste. mam wrażenie, że mogłyby być podejmowane bardziej przejrzyście, albo też przy intensywniejszych konsultacjach ze środowiskiem użytkowników. bo np. nie jest dla mnie jasne, dlaczego twórcy bibliotek cyfrowych uznali, że historia regionalna jest właśnie tym obszarem nauki, który chcą poprzez dygitalizację wspierać?
    będę się natomiast upierał, że jest to statystyka szokująca – z mojej perspektywy, różnej trochę od tej typowo bibliotekarskiej: o ile dla wielu bibliotekarzy kluczowym zadaniem jest archiwizacja, dla mnie ma ona dużo mniejszy sens, jeśli nie wiąże się z zapewnieniem realnego dostępu i wykorzystania utworu

  6. @ ter-
    Przepraszam, jeśli uraziłem. Moja uwaga dotyczyła zakończenia:

    „… W słodkich snach wyobrażam sobie bibliotekę cyfrową tak. Wpisuję w wyszukiwarce np. ?Trzydzieści pięć lat pracuję przy starym papierze i to jest moja love story?, a w wynikach dostaję: Bohumil Hrabal, ?Zbyt głośna samotność?, oczywiście pełny tekst :-), poza tym skany rękopisu, opracowania itd…”

    Ja też tak sobie wyobrażam w pełni funkcjonalną bibliotekę cyfrową.

    @ Alek

    Jasne, że przystosowanie tekstów to możliwości przeszukiwania wiąże się z kosztami. Jednak bez przesady. Można do tego zaangażować informatyków z prawdziwego znaczenia, a także wykorzystać wolontariuszy, tak jak robi to Wikipedia, czy Open Office. Chętnych na pewno znalazło by się wiele.

  7. Pewnie według Werbalisty nadużyję przymiotnika „cyfrowy”, ale mnie, bibliotekarza cyfrowego, aż korci, żeby również poprzeć to, co już potwierdzili ter i Alek, że są to jak najbardziej biblioteki cyfrowe, które nie tylko pozwalają na pełnotekstowe wyszukiwanie z poziomu danej biblioteki (83% wszystkich zasobów jest w formacie djvu, więc mamy też i OCR), ale wystawiają też pełne teksty wyszukiwarkom (15% to pdf-y, html, itp., które google w pełni indeksuje).
    Odniosę się jeszcze do paru wątków tutaj poruszonych. Podejrzewam, że publikacje technicznie ograniczone do numerów IP to naprawdę mały procent. Przykładowo: Śląska Biblioteka Cyfrowa to szósta co do wielkości bc, a ani jedna jej publikacja nie ma ograniczonego w ten sposób dostępu. Co do dylematu jakie materiały należy publikować: myślę, że oba nurty (ochrona dziedzictwa i uwalnianie współczesnej wiedzy) są równie ważne. Badałam kiedyś wykorzystanie wszystkich artykułów naukowych Wyższej Szkoły Humanitas podpiętych do ŚBC. Nie było ani jednego niewykorzystanego. W ciągu paru miesięcy miały one po kilkadziesiąt wyświetleń, teraz mają już po kilkaset. Myślę, że o utylizację współczesnych publikacji nie ma co się martwić i jest to wg mnie bardzo pozytywny sygnał, choć jeszcze do zbadania. Oczywiście ważne by było badanie potrzeb użytkowników, ale również analiza ich zapytań, ale o to jestem spokojna, bo takie analizy już są przeprowadzane:).

  8. @Werbalista: Przepraszam, jeśli uraziłem.

    W żadnym wypadku. Zaprotestowałem jedynie przeciwko przypisywaniu mi opinii, których nie wygłaszałem.

    @Alek: (decyzje) mogłyby być podejmowane bardziej przejrzyście, albo też przy intensywniejszych konsultacjach ze środowiskiem użytkowników.

    Masz rację, dobrze by było, gdyby ten proces można maksymalnie zdemokratyzować. Wydaje mi się, że bardzo by sobie tego życzyli również bibliotekarze. M.in. w tym celu powstało forum Biblioteka 2.0. Pech chce, że dotychczas czytelnicy zabierają tam głos stosunkowo rzadko. Nie wiem, czy zorganizowanie giełdy, o której pisałeś, coś by zmieniło, ale po co zwlekać? Po prostu podaj – tu, na forum B20 albo mailem – powiedzmy kilka czy kilkadziesiąt tytułów, które uważasz za potrzebne (Każdy może to zrobić!). Na pewno propozycja zostanie potraktowana poważnie.

    @ (…) np. nie jest dla mnie jasne, dlaczego twórcy bibliotek cyfrowych uznali, że historia regionalna jest właśnie tym obszarem nauki, który chcą poprzez dygitalizację wspierać (…)

    Może nie sama historia regionalna, ale – jak to określa spora część polskich bc – „regionalia i dziedzictwo kulturowe regionu”. Co najmniej kilka powodów przychodzi mi do głowy.

    1. Fundusze. Dość kosztowna działalność bc opiera się w dużej części na grantach itp. „cołaskach”. Mało kto z organizatorów ma dość czasu, i siły przebicia, żeby skutecznie antyszambrować w centralnych urzędach w sprawie projektu obliczonego na miarę realnych możliwości jednej lub kilku prowincjonalnych bibliotek. Pozostają więc środki, jakimi dysponują samorządy, a korzystanie z nich wiąże się na ogół ze specyficznym kontraktem – wsparcie w zamian za promocję regionu.

    2. Ograniczenia prawne. Sam wyżej o tym wspominasz, ale nigdy dość powtarzania. Biblioteki cyfrowe po prostu NIE MOGĄ umieścić w publicznie dostępnych kolekcjach druków objętych rygorami prawa autorskiego. Moim zdaniem jest to główna przyczyna niedosytu, jaki odczuwa użytkownik biblioteki cyfrowej. Udostępnia się to, na co pozwalają przepisy prawa, czyli, co tu dużo gadać, jeśli nawet wartościowe, to jednak głównie starocie. Wielka, czarna dziura jest faktem.

    3. Trzeba znaleźć niszę, w której takie karzełki, jak polskie biblioteki cyfrowe (karzełki pod względem finansów i technicznych możliwości) będą mogły zrobić coś trwałego i sensownego, bez ryzyka „zadeptania” przez gigantów w rodzaju Google Books. Już w tej chwili, o ile wiem, bibliotekarzom spędza sen z powiek myśl, że to, co zdigitalizują sporym nakładem sił, za miesiąc czy za rok znajdzie się w Google Books, gdzie będzie miało tysiąckrotnie większą publiczność. Pomysł, żeby skoncentrować się na regionie jest jednym z rozsądnych rozwiązań, tym bardziej, że (i to już jest kolejny powód)…

    4. w zbiorach wielkich bibliotek, z którymi współpracuje GB, ta tematyka jest słabo reprezentowana. Natomiast sporo polskich bibliotek specjalizowało się w materiałach dotyczących swoich regionów jeszcze przed epoką internetu; mają często unikalne, systematycznie opracowane zbiory. Zresztą, taka jest naturalna kolej rzeczy; gdzie mógłbyś poznać lepiej kulturę Czukczów niż na Czukotce? :-) W (hipotetycznej) bibliotece cyfrowej Półwyspu Czukockiego szukałbyś Cervantesa albo Pynchona? No przecież nie.

    5. Zapotrzebowanie społeczne. Być może się zdziwisz, ale regionalne smaki znajdują amatorów także poza gronem wąsko wyspecjalizowanych historyków, np. z powodów sentymentalnych albo ze względu na zainteresowania genealogiczne – księgi adresowe, mapy i fotografie z rodzinnych stron przyciągają sporo ludzi spoza kręgu specjalistów.

    No, a jak już się digitalizuje te „regionalia i dziedzictwo regionu”, to trzeba to robić z pewnym zamysłem i systematycznie, tak żeby docelowy zbiór stanowił w miarę spójną całość. Wątpię, czy ograniczanie się do składanek „Greatest Hits” i „The Best of…” dałoby lepszy efekt.

  9. Wracając do problemu poruszonego w blogowym wpisie – co się skanuje i publikuje w BC, a co potem jest czytane – chciałbym zwrócić uwagę na ciekawe zestawienie statystyk np. w Wielkopolskiej BC:

    http://www.wbc.poznan.pl/dlibra/pubstats?statType=495

    Pierwszy wykres i dane pod nim pokazują, że rozkład liczby publikacji w WBC pod względem umieszczających te publikacje w WBC jest w przybliżeniu następujący (w chwili gdy piszę te słowa):
    – BK PAN – 61,33%
    – B UAM – 27,57%
    – AP – 5,33%
    […]
    – B AWF – 0,18%
    itd.

    Bardzo ciekawe jest zestawienie tych danych z danymi z drugiego wykresu na podanej powyżej stronie. Wykres ten pokazuje, czyje (umieszczane przez jakie instytucje) publikacje przyciągają największą liczbę czytelników. I tak mamy tutaj:
    – BK PAN – 20,91%
    – B UAM – 13,37%
    – B AWF – 7,96%
    […]
    – AP – 0.97%

    Skąd tak duża popularność niewielkiej liczby materiałów z AWF? Odpowiedź znajduje się tutaj:

    http://www.wbc.poznan.pl/dlibra/results?search_op1=AND&search_attid1=495&isExpandable=off&dirids=1&queryType=-4&query=&search_value1=%22Biblioteka%20Akademii%20Wychowania%20Fizycznego%20w%20Poznaniu%22&isRemote=off&action=SearchAction

    Są to po prostu współcześnie wydawane publikacje i materiały przeznaczone dla studentów. Analogicznie do AWF wygląda też w tych statystykach np. Wydział Chemii UAM.

    Ale popularność to nie wszystko. Moim zdaniem WBC dużo by straciła bez materiałów np. takich jakie umieszcza w niej AP.

  10. A jak czytelnik przychodzi do biblioteki i chce skorzystać z książki, której przez lata nikt z półki nie ruszył to magazynier ma prawo odmówić realizacji tłumacząc, że nie da tej książki bo nikt tego przez lata nie ruszał, leży na końcu korytarza w odległym magazynie, jest zakurzona i na pewno nie warto po nią iść?
    Nigdy nie odmawiamy Czytelnikom dostępu do interesujących ich treści. Nie nasza sprawa dlaczego coś ich interesuje i czy będzie to wykorzystane tylko raz czy dwa… Ważne, że jest im to potrzebne a my możemy to udostępnić. Taki kontakt to dla nas też informacja, że usługa w postaci >biblioteki cyfrowej< (przepraszam, że ranię niektórych) jest potrzebna i przydatna.
    I kolejna rzecz, która na pewno ma wpływ na całość a nie wychodzi w liczbach a dotyczy tego, że bc pełne są staroci. Są pełne staroci bo: 1. w tradycyjnej bibliotece dostęp do tego typu zbiorów dla zwykłego zjadacza chleba jest często niemożliwy (a tacy bez stopni naukowych też zaglądają do tego typu zbiorów!). Biblia brzska też jest starociem i ma 51358 wyświetleń. 2. biblioteki, które udostępniają ten typ zasobów już od kilku lat zaangażowane sa w budowę bc stąd relatywnie duża ich liczba w stosunku do innych zbiorów. Być może za 5 lat będą inne proporcje, biblioteki akademickie mają pole do popisu :-)
    I już na koniec tylko krótka informacja dla tych, którzy nie pracuja w bibliotekach: byście się zdziwili czym ludzie się zajmują i czego szukają, jakie odległe od rzeczywistości, niszowe i wąskie tematy ich interesują…..
    Pozdrowienia :-)

  11. @Alek: To dla mnie dość szokująca statystyka, pokazująca, że albo trzeba więcej energii poświęcić na promocję tych zasobów, albo też inaczej dobierać materiały do skanowania. W sytuacji, gdy mamy w Polsce tak małe zasoby na dygitalizację, należy w pierwszej kolejności skanować dzieła najbardziej wartościowe. W sytuacji, gdy ta wartość nie jest oczywista, potencjalna liczba użytkowników jest jedyną dobrą miarą. (…)

    Masz rację Alek, że trzeba poświecić więcej energii na promocję. Wydaje mi się, że robimy co możemy ale z pewnością jest to za mało skoro pojawiają się takie artykuły jak ten z Gazety Wyborczej „Europejska kultura w sieci, polska nie”. W nim są jeszcze bardziej szokujące statystyki.

    Statystyki o których napisałeś trzeba uzupełnić komentarzem. Jest tak jak wspomniał ter-. Spora część zasobów polskich BC to czasopisma, które są publikowane w postaci publikacji grupowej, gdzie każdy numer jest osobną publikacją. Oczywiste jest, że nie wszystkie numery zostaną natychmiast obejrzane przez czytelników i w związku z tym podczas odczytu statystyk mamy publikacje nieczytane. Zapewniam cie jednak, że projektując linię technologiczną do digitalizacji takiego zasobu jakim są setki tysięcy stron (często oprawionych) analiza przydatności i wyłączania z digitalizacji pojedynczych numerów byłaby zbyt kosztowna, nawet w przypadku 50% zawartości całego zasobu czasopisma. Taniej jest zdigitalizować całość za jednym razem. Ciekawe byłoby więc zestawienie jaki procent w tych nieczytanych publikacjach stanowią czasopisma.

    Nie ulega natomiast wątpliwości, że warto badać zapotrzebowanie czytelników i digitalizować to co jest najbardziej potrzebne. Jedną z metod badania zapotrzebowania może być analiza zapytań np. przy pomocy takiego narzędzia:
    http://www.bu.uni.wroc.pl/bcredaktor/statystyki.php

  12. @Alek: To dla mnie dość szokująca statystyka, pokazująca, że albo trzeba więcej energii poświęcić na promocję tych zasobów, albo też inaczej dobierać materiały do skanowania. W sytuacji, gdy mamy w Polsce tak małe zasoby na dygitalizację, należy w pierwszej kolejności skanować dzieła najbardziej wartościowe. W sytuacji, gdy ta wartość nie jest oczywista, potencjalna liczba użytkowników jest jedyną dobrą miarą. (…)

    Masz rację Alek, że trzeba poświecić więcej energii na promocję. Wydaje mi się, że robimy co możemy ale z pewnością jest to za mało skoro pojawiają się takie artykuły jak ten z Gazety Wyborczej „Europejska kultura w sieci, polska nie”. W nim są jeszcze bardziej szokujące statystyki.

    Statystyki o których napisałeś trzeba uzupełnić komentarzem. Jest tak jak wspomniał ter-. Spora część zasobów polskich BC to czasopisma, które są publikowane w postaci publikacji grupowej, gdzie każdy numer jest osobną publikacją. Oczywiste jest, że nie wszystkie numery zostaną natychmiast obejrzane przez czytelników i w związku z tym podczas odczytu statystyk mamy publikacje nieczytane. Zapewniam cie jednak, że projektując linię technologiczną do digitalizacji takiego zasobu jakim są setki tysięcy stron (często oprawionych) analiza przydatności i wyłączania z digitalizacji pojedynczych numerów byłaby zbyt kosztowna, nawet w przypadku 50% zawartości całego zasobu czasopisma. Taniej jest zdigitalizować całość za jednym razem. Ciekawe byłoby więc zestawienie jaki procent w tych nieczytanych publikacjach stanowią czasopisma.

    Nie ulega natomiast wątpliwości, że warto badać zapotrzebowanie czytelników i digitalizować to co jest najbardziej potrzebne. Jedną z metod badania zapotrzebowania może być analiza zapytań podobna do tej która robi BUWr.

  13. @Tomasz

    Zgadzam się z Twoim komentarzem uzupełniającym – tak jak i z większością komentarzy powyżej. Cieszę się, że udało się tym samym przeprowadzić krótką dyskusję na temat.

    Wątek o skanowaniu gazet jest ciekawy – i wiąże się z trudnością znalezienia dobrej miary oddającej rozmiar zasobów cyfrowych. Nie wiadomo do końca co liczyć: strony, utwory, znaki?