Sąd apelacyjny wydaje decyzję w sprawie “dozwolonego użytku”

hathitrust-28010 czerwca 2014 r. Sąd Apelacyjny Drugiego Okręgu (południowy Nowy Jork) wydał wyrok, przychylając się do argumentów HathiTrust i odrzucając apel kilku organizacji autorskich, w tym m.in. amerykańskego Authors Guild i szwedzkiego Sveriges Författarförbund. W podsumowaniu wyroku czytamy:

“…utrzymujemy, że doktryna “dozwolonego użytku” pozwala pozwanym na stworzenie bazy danych umożliwiającej przeszukiwanie pełnotekstowe dzieł objętych prawami autorskimi i na dostarczenie tych dzieł w formatach dostępnych dla osób niepełnosprawnych.”

Czytaj dalej „Sąd apelacyjny wydaje decyzję w sprawie “dozwolonego użytku””

Wiki-konferencja USA 2014

Rola wikipedii w cztereach typach bibliotek

Panel „Rola wikipedii w cztereach typach bibliotek”. Wiki-konferencja USA 2014. Foto Piotr Puchalski

W dniach 30 maja do 1 czerwca 2014 odbyła się w w New York Law School na Manhattanie konferencja “Wikiconference USA 2014”. Konferencja zgromadziła wikipedystów z USA, którzy przedstawiali i dyskutowali gorące obecnie tematy dotyczące Wikipedii a także jej siostrzanych organizacji skupionych w Wikimedia Foundation. Oprócz problemów technicznych, szkoleń i dnia poświęconego nieformalnemu spotkaniu  (“Unconference”), wiele sesji poświęconych było tematom, które bliskie są instytucjom GLAM i organizacjom edukacyjnym, takim jak wykorzystanie Wikipedii w kursach akademickich, prawa autorskie, wikiprojekty i inne formy współpracy. Poniżej kilka refleksji z sesji w którch braliśmy udział, dzieląc się uczestnictwem w równoległych sesjach.

Dzień pierwszy konferencji zaowocował wieloma pomysłami na rozwój projektu GLAM Instytutu Piłsudskiego. Podczas sesji, na której cztery różne instytucje przedstawiały swój sposób na wykorzystanie Wikipedii, Natalie Milbrodt z Queens Library podzieliła się innowacyjnym pomysłem na „Edytaton”. „Edytaton” to zebranie osób zainteresowanych daną dziedziną, podczas którego, na podstawie dokumentów danej instytucji, osoby te piszą artykuły do Wikipedii, nauczywszy się najpierw podstaw edytowania. Czytaj dalej „Wiki-konferencja USA 2014”

Linked Data cz. 2: gdzie są dane?

linked-data280

Fragment diagramu Linked Data z portalu LinkedData.org

Linked Data jest stosunkowo nowym zjawiskiem w sieci WWW, ideą dostępu do danych strukturalnych. Co to są dane strukturalne? WWW jest uniwersalnym nośnikiem informacji czytelnej dla człowieka – wszystkie strony internetowe, artykuły, aplikacje dają nam informacje, które możemy odczytać i zinterpretować, na przykład pytanie: „kiedy przyjedzie następny tramwaj?” i odpowiedź; “za 10 minut”. Takie pytanie i odpowiedź nie są jednak łatwe do odczytania przez komputery, które potrzebują informacji w ścisłej strukturze: (“Numer przystanku: 4398, linia tramwajowa: 11, odległość od przystanku: 0.8 km, itp.)

Informacja jest zwykle zapisana w bazach danych, które po wielu latach udoskonalania są bardzo wydajne w przechowywaniu i wyszukiwaniu danych, ale fatalne w wymianie informacji. Każda baza danych zawiera wiele kolumn, nazywanych raczej dowolnie i tylko lokalny system komputerowy umie z niej wyciągnąć dane. Nowy koncept, Linked Data, przybywa tutaj z pomocą. Schemat metadanych Linked Data, o nazwie  RDF (Resource Description Framework, struktura opisu zasobów), wymaga, aby dane nie były prezentowane w trudnych do odcyfrowania tabelach, ale w prostych zdaniach, składający się z podmiotu, orzeczenia i dopełnienia. Zamiast wymyślonych nazw kolumn używamy nazw standardowych, a zamiast nazwy podmiotu używamy jego identyfikator URI (Universal Resource Identifier, uniwersalny identyfikator zasobu). Przykładowo, trywialna dla człowieka informacja o tytule tego blogu (przecież możemy przeczytać go powyżej, prawda?) zamienia się w zdanie albo “trójkę” w slangu RDF [1) www.archiwa.net/index.php?option=com_content&view=article&id=593&catid=95:blog&Itemid=42, 2)  dc:title, 3) „Linked Data cz. 2: gdzie są dane?”]. Pierwsza część to adres URI jednoznacznie wskazujący na ten artykuł, druga to „tytuł” w konkretnym standardzie metadanych (Dublin Core), a trzecia część to tekst tytułu.

Czytaj dalej „Linked Data cz. 2: gdzie są dane?”

Hakerzy i archiwiści z NASA przywracają do świetności zagubione zdjęcia księżyca.

wschod-ziemi-280

Wschód ziemi. W dolnej części odzyskane zdjęcie wysokiej jakości.

NASA opublikowało niedawno nowo odzyskane zdjęcia z sond księżycowych, wysyłanych  w latach 1966-67 w ramach programu „Lunar Orbiter”. Różnica jakości pomiędzy starymi, opublikowanymi zdjęciami i nowym materiałem jest uderzająca. Historia uratowania materiału i odtworzenia wysokiej jakości obrazów jest pouczająca, a zaczyna się od roku 1986, kiedy to archiwistka Jet Propulsion Laboratory (JPL) Nancy Evans zdecydowała, że nie może, w dobrej wierze, zwyczajnie wyrzucić starego materiału.

Sondy wyposażone były kamery wysokiej jakości, z podwójnymi obiektywami, i wykonywały duże ilości zdjęć na taśmie 70 mm. Taśmy były potem wywoływane na pokładzie sondy, zdjęcia były skanowane i wysyłane na ziemię. Modulowany sygnał z sondy, był zapisywany na taśmę magnetyczną, wraz z komentarzami operatorów. Następnie cała sonda (z oryginałami zdjęć) była bezceremonialnie rozbijana o powierzchnię księżyca. Taśmy magnetyczne były wykorzystane do wydrukowania dużych obrazów na papierze (wynajmowano stare kościoły aby rozwiesić ogromne arkusze), które używano do zidentyfikowania potencjalnych miejsc lądowania na księżycu. Następnie taśmy były załadowane do pudeł i zapomniane.

Czytaj dalej „Hakerzy i archiwiści z NASA przywracają do świetności zagubione zdjęcia księżyca.”

Unikalne identyfikatory w archiwach i bibliotekach

W zamierzchłych czasach, kiedy żyliśmy w wioskach, kontekst wystarczał do rozwikłania niejednoznaczności w języku, a w szczególności homonimów. Słowa takie jak zamek, bałwan, para, bal albo rakieta muszą być użyte w kontekscie aby były zrozumiałe (jaki obiekt przychodzi Ci na myśl, kiedy głośno wypowiesz słowo “zamek”?). Globalizacja informacji, szczególnie po powstaniu Internetu, wymaga szczególnej staranności w definiowaniu kontekstu. W powieści “Tajemniczy ogród” Frances Hodgson Burnett, występuje ptaszek, “robin”, albo po polsku rudzik. W USA “robin”, to zupełnie inny ptak, drozd wędrowny i wszyscy czytelnicy tej książki w Stanach Zjednoczonych są wprowadzeni w błąd. Użycie słowa “football” na określenie zupełnie różnych sportów w różnych częsciach świata prowadzić może tylko do śmiesznych nieporozumień, użycie słowa bilion, które czasem znaczy tysiąc milionów, a czasem milion milionów (zależnie do miejsca i czasu) może prowadzić do poważnych już konsekwencji, szczególnie finansowych.

W języku naturalnym niejednoznaczność jest przyprawą, smakiem – bez niej nie było by insynuacji, niedopowiedzeń, podtekstów, poezji. Ale w naukach, zarówno ścisłych jak i humanistycznych, niejednoznaczność jest trucizną wiedzy, i musi być bardzo starannie unikana. W roku 1735 Karol Linneusz opublikował “Systema Naturae”, pierwszą sytematyczną próbę wprowadzenia jednolitego nazewnictwa w biologii. W roku 1782 Louis-Bernard Guyton de Morveau opublikował rekomendacje jednolitego nazewnictwa chemicznego. Obie te publikacje były tylko początkiem bardzo złożonych (i ciągle ulepszanych), działajacych obecnie systemów nazewnictwa w biologii i w chemii. Podstawowym językiem – lingua franca – tych systemów jest łacina w przypadku klasyfikacji biologicznej i angielski w chemii, a nazwy w innych językach sa tylko (mniej lub bardziej jednoznacznymi) tłumaczeniami.

Czytaj dalej „Unikalne identyfikatory w archiwach i bibliotekach”

Dlaczego cyfrowo?

Dlaczego ważne są technologie cyfrowe, skanowanie i digitalizacja dokumentów i książek i innych obiektów? Jakie jest uzasadnienie ogromnego wysiłku przekształcania spuścizny kulturowej w postać cyfrową? Często słyszę takie pytania – od historyków, którzy preferują zapach i dotyk oryginalnych dokumentów lub archiwistów, którzy twierdzą, że mikrofilmy są wystarczająco dobre. Czy cyfryzacja to tylko moda, która wkrótce przejdzie, czy też ma to głębsze uzasadnienie?

“Cyfrowe” jest ważne – dla archiwów, bibliotek, muzeów (GLAM) oraz dla wszystkich producentów i konsumentów dóbr kultury. Omówimy tu trzy powody przechodzenia do cyfrowego przetwarzania informacji: Zabezpieczanie, Znajdywalność (discoverablity) i Dostęp.

Zabezpieczanie

Układ cyfrowy jest tylko jedną z wielu implementacji dyskretnych systemów przechowywania i obróbki informacji. Większość sygnałów, które docierają do naszych zmysłów, np. widok tęczy, symfonia lub zapach róży, można uznać za analogowe. Sygnał analogowy może przyjąć dowolną wartość, na przykład dźwięku lub koloru. Zakres jest zazwyczaj ograniczony jedynie możliwościami naszych zmysłów – nie widzimy podczerwieni, ani słyszymy ultradźwięków itp. Ale sygnał optyczny, po tym jak wpadnie do naszego oka lub kamery cyfrowej, nie jest dalej przetwarzany jako sygnał ciągły. Czujniki światła w siatkówce (czopki i pręciki) działają na zasadzie “wszystko albo nic”, podobnie dzieje się w kamerze gdzie każdy element czujnika rozkłada światło na ograniczoną liczbę poziomów.  Sygnał zostaje zmieniony w informację – wkraczamy tu w sferę dyskretności. W układzie dyskretnym tylko ograniczona, przeliczalna liczba stanów jest dozwolona, nie ma nic pomiędzy. W nowoczesnych komputerach cyfrowych podstawową jednostką informacyjną jest bit, który może posiąść tylko dwa stany (zwyczajowo zwane 0 i 1). Matematyczna teoria informacji, po raz pierwszy zaproponowana przez Claude E. Shannona, również używa jako jednostki binarnego bitu, z implikacją, że informacja w naturze swojej jest dyskretna. W komputerach, pojedyncze bity są zazwyczaj ułożone w grupy: 8 bitów w określonej kolejności nazywa się bajtem. W celu utrzymania ogólnego charakteru dyskusji, najmniejsza jednostkę systemu dyskretnego będziemy dalej nazywać znakiem, a ciąg znaków słowem.

Czytaj dalej „Dlaczego cyfrowo?”

Wikipedia w Instytucie Piłsudskiego

Wikipedyści w Instytucie Piłsudskiego
Wikipedysta – Rezydent Piotr Puchalski na szkoleniu w Instytucie Piłsudskiego prowadzonym przez Dorothy Howard (po prawej), wikipedystkę z Metropolitan Library Council.

Wikipedia jest dziś największym źródłem wiedzy o charakterze encyklopedycznym, dostępnym w sposób otwarty dla każdego. Od naukowców do uczniów w szkole, wszyscy posługują się Wikipedią. Wikipedia ma miliony odsłon dziennie, ponad 250 wersji językowych i zawiera ponad 20 milionów artykułów. Polska Wikipedia ma ponad milion artykułów i jest jedną z największych Wikipedii, obecnie na imponującym 9 miejscu na świecie.

Synergia pomiędzy Wikipedią a Instytutem Piłsudskiego nie podlega wątpliwości. Zadaniem Wikipedii jest rozpowszechnianie wiedzy; Instytut, z racji swoich zasobów, archiwalnych, muzealnych, bibliotecznych i innych, stanowi bezcenne tej wiedzy zródło, ktore chce udostępnić jak najszerzej. Niedawno pisałem o GLAM i znaczeniu instytucji w tym sektorze dla udostępniania wiedzy. Dziś więcej  o inicjatywach Instytutu związanych z Wikipedią.

Czym jest Wikipedia?

Jest to otwarta encyklopedia dostępna elektronicznie, którą tworzą i edytują wolontariusze na całym świecie. Każdy może wziąć udział w tworzeniu artykułów, nie potrzeba do tego żadnego zezwolenia ani przynależności do jakiejś organizacji (wskazane, ale niekonieczne jest zalogowanie się). Wikipedia powstała w 2001 i niedługo będzie obchodzić 15 lecie. Jest jedną z rosnącej grupy inicjatyw jej macierzystej instytucji – Wikipedia Foundation. Działanie Wikipedii opiera się na trzech podstawowych zasadach:

Czytaj dalej „Wikipedia w Instytucie Piłsudskiego”

Iza, Zosia i Atom odwiedzają archiwa

zosia-atomSeminarium pod tytułem “ZoSIA vs. AtoM. Dwa systemy do zarządzania zasobem archiwalnym” które odbyło się w Warszawie w dniach 23 i 24 stycznia 2013 jest ciekawym dla obserwatora z zewnątrz spojrzeniem na ewolucyjną drogę, jaka idą archiwa w komputeryzacji katalogów zasobów archiwalnych. W odróżnieniu od biblioteki, która posługuje się standardowymi narzędziami komputerowymi od ponad 40 lat, archiwum dopiero względnie niedawno weszło na drogę standaryzacji. Potrzeba zmusiła organizacje archiwalne do tworzenia narzędzi, wczesne ich użycie pozwoliło na szybką komputeryzacje procesu inwentaryzacji zasobów, a szerokie użycie utrudnia do dziś zmiany i ewolucje. Tak powstały programy SEZAM i IZA które z dużym powodzeniem służyły archiwstom. Nie oparte na standardach wymiany danych (takich jak EAD) i oparte na przestarzałą juz dziś technologie, spełniły jednak bardzo ważna funkcję wprowadzenia dość jednolitego systemu do polskiej archiwistyki (i przez przedłużenie do tych archiwów polonijnych które zdecydowały sie na komputeryzację).

Czytaj dalej „Iza, Zosia i Atom odwiedzają archiwa”

Czy jesteś GLAM?

glam_logo_transparent

GLAM to akronim (skrótowiec) od  “Galleries, Libraries, Archiwes and Museums”. Po polsku zapewne byłby GMAB, gdyby taki skrót był używany. Nie ma ciała ani organizacji o nazwie GLAM, skrót ten odnosi sie do agregacji instytucji które maja coś ze sobą wspólnego: są repozytoriami dziedzictwa kulturowego człowieka.

Istnieją instytucje, które zrzeszają muzea, archiwa, biblioteki itp. albo udzielają im wsparcia finansowego czy logistycznego, np.  Institute of Museum and Library Services (ILMS) w Waszyngtonie, Museums, Libraries and Archives Council w Wielkiej Brytanii czy Norwegian Archive, Library and Museum Authority. Te instytucje nie roszczą sobie jednak przynależności do GLAM ani nie używają tego skrótu.

Czym  więc jest GLAM? Jest to idea, zgodnie z którą instytucje których zadaniem jest gromadzenie i udostępnianie dóbr kultury zyskają na szerokim udostępnieniu tych dóbr. Najlepiej ilustrują ideę GLAM dwie inicjatywy, OpenGLAM i GLAM-Wiki.

Czytaj dalej „Czy jesteś GLAM?”

Rozdzielczośc i mit DPI

david David by Michelangelo; dithered by User:Gerbrant using own software (cropped from Image:Dithering algorithms.png) [Public domain], via Wikimedia Commons

Niezbyt dawno, w czasie rozmowy z archiwistą z Londynu, mieliśmy okazje sprzeczać się na temat dpi plików cyfrowych. Wydawało mi się wtedy, że to zwykłe nieporozumienie, aż do chwili, kiedy inny archiwista z dużej instytucji w Polsce zaczął przekonywać mnie, że filmy 35 mm (negatywy) skanuje się z rozdzielczością 600 dpi. Ponieważ dałoby to skan podobny do rastrowych zdjęć w starych gazetach (używano tam procesu zwanego dithering) – patrz obraz po prawej,  byłem nieco zaskoczony. Dało to impuls do napisania tego blogu o dość powszechnej, jak widać,  mitologii dpi.  O skanie tego negatywu będzie nieco dalej, na początek wstęp o rozdzielczości.

Rozdzielczość

Rozdzielczość optyczna jest pojęciem o ustalonej reputacji pochodzącym z optyki, i w ogólności definiuje, dla danego systemu optycznego, jak daleko muszą być odległe od siebie dwa obiekty (np. dwie równoległe linie), aby dało się je odróżnić – jeśli są za blisko, zmyją się w jeden.  Rozdzielczość obiektywów zależy od jakości soczewek i od średnicy soczewki, rozdzielczość błony filmowej od wielkości ziarna itp. Rozdzielczość optyczną wyraża się często w liniach na centymetr. Przy digitalizacji rozdzielczość optyczna jest podstawym parametrem, gdyż określa, jak drobne szczegóły oryginału będą wiernie oddane w zapisie cyfrowym.

Czytaj dalej „Rozdzielczośc i mit DPI”