Więcej produktu, mniej procedury

More Product Less Process

ArchiwumOn czasu opublikowania przez Marka A. Greene and Dennisa Meissnera w 2005 wpływowego artykułu More Product, Less Process: Revamping Traditional Archival Processing[1], proponowane w tej pracy rozwiązania zdobywają sobie coraz większe powodzenie wśród archiwistów. Jest to zdumiewające o tyle, że archiwa, instytucje o długiej tradycji, powołują się w pracy raczej na tę tradycje niż na nowinki. Wydaje się jednak, że autorzy tej metodyki, zwanej już popularnie jako MPLP, trafili w dziesiątkę i spowodowali poważne przemyślenia procedur w wielu instytucjach.

Praca ta, dotycząca organizowania i opisywania archiwów, wychodzi z zauważenia zjawiska tworzenia się w archiwach rosnących zaległości w opracowywaniu nabytków. Zaczynając od wyczerpującego przeglądu literatury, autorzy wysłali (i opracowali) ankiety do dużej liczby archiwów (państwowych i prywatnych), do archiwistów, a także dokonali analizy projektów fundowanych przez Narodową Komisję Rekordów i Publikacji Historycznych w USA. Hipoteza roboczą, która została potwierdzona w trakcie badań, było stwierdzenie, że “stosowana powszechnie metodyka obróbki archiwów trwoni cenne środki, ponieważ archiwiści tracą zbyt wiele czasu na zadania które nie muszą być wykonane, albo nie muszą być wykonane w tym momencie”. Autorzy twierdzą, że przez uproszczenie procedur i odłożenie części prac na później, można w znaczący sposób przyspieszyć udostępnienie zasobów badaczom.

Od czasu publikacji wiele archiwów zaczęło stosować wskazania przedstawione w tej pracy, albo przynajmniej uwzględniło niektóre z wniosków przy modyfikacji własnych procedur. Jest dostępnych w Internecie sporo raportów archiwistów opisujących doświadczenia przy wprowadzaniu MPLP w swoich instytucjach. Stowarzyszenie Amerykańskich Archiwistów (SAA) zaczęło oferować regularne kursy akademickie z implementacji MPLP.

Czytaj dalej „Więcej produktu, mniej procedury”

METRO Annual Conference 2016

Streszczenie

W czwartek 21 stycznia 2016 braliśmy udział w dorocznej konferencji METRO – Metropolitan New York Library Council – która miała miejsce w Baruch College w Manhattanie. Konferencja ta, jak i poprzednie, była doskonałym przeglądem najnowszych inicjatyw, pomysłów, rozwiązań i projektów w dziedzinie humanistyki cyfrowej w społeczności GLAM. Poniżej przedstawiamy omówienie wybranych prezentacji w języku angielskim.

Metro 2016The annual METRO (Metropolitan New York Library Council) conferences are about the best sources of the latest inventions, projects and ideas in the GLAM community, concentrated in one day of intense briefings. This year was no exception – the conference that took place January 21, 2016 at the Baruch College in Manhattan. On the conference a number of “Project briefings” were presented – the intent was to show the projects in progress and discuss their workings, issues and plans, not necessarily the completed works. It was impossible to attend so many parallel briefings; we have selected two in each sessions, and report on them here as a sampling of the conference.

The full schedule of the conference is available, as well as a listing of the project briefings.

Keynote

The inaugurating keynote was delivered by Kari Lämsä, the manager of Library Number 10 and the Urban Workshop in Helsinki. He presented a fascinating case of modern library and a testbed for a library transformation to 21 century. [Presentation slides]

The author started with an observation, that only some 25% of the patrons check-out materials from the library and the library events are now organized in 80% to 90% by its customers. He then described the transformations, beginning with the furniture – traditionally uncomfortable library chairs to various places – some flexible, some comfortable, some creating a tranquil space, all movable by the customers from one place to another. Another change was to treat paperback editions as consumables – no reservations, no fixed order on shelves, read until fall apart. Czytaj dalej „METRO Annual Conference 2016”

Co jest na odwrocie zdjęcia cyfrowego?

TardisKiedy oglądamy stare zdjęcie, na odwrocie często możemy znaleźć stempelek fotografa, notatkę na temat miejsca i daty zdjęcia, a nawet kto na nim jest. Ale gdzie jest “odwrotna strona” zdjęcia cyfrowego?

Nazwa pliku nie jest dobrym miejscem na zapisanie tych informacji. Okazuje się jednak, że obrazy cyfrowe mają “odwrotną stronę”, informacje o zdjęciu lub skanie, zapisaną wewnątrz pliku. Zapis ten nie zmienia samego obrazu, a do jego odczytania (i zapisania) potrzebujemy odpowiedniego narzędzia – programu.

Informacje są różnego typu. Kamera cyfrowa zapisuje wiele danych technicznych takich jak czas naświetlania, przesłona, liczba pixli i dane samej kamery. Te metadane zapisywane są w standardzie zwanym Exif. Przy przesyłaniu zdjęć przydatna jest informacja o tym, co jest na zdjęciu przedstawione, kto je zrobił, tytuł zdjęcia, autor, dane o prawach autorskich itp. Te dane zapisywane są w standardzie o nazwie IPTC. Zarówno Exif jak i IPTC zostały wprowadzone około 1995 roku, a więc są dość stare. Ma to swoje zalety – większość programów odczytujących zdjęcia potrafi odczytać te etykiety, a więc dane te są łatwo dostępne. Ale standardy te mają wiele wad:

  • Nie wszystkie formaty plików cyfrowych mogą je zmieścić (np. obrazy w formacie png nie zawierają danych Exif).
  • Liczba etykiet jest ograniczona bez możliwości dodania nowych – brakuje ważnych pól, np. osoby na zdjęciu.
  • Zapis jest ograniczony w wielkości tekstu (mała liczba znaków), brak jest kodowania unicode (brak wsparcia dla polskich liter), brak możliwości zapisu w różnych językach i wiele innych.

Czytaj dalej „Co jest na odwrocie zdjęcia cyfrowego?”

Linked Data cz. 2: gdzie są dane?

linked-data280

Fragment diagramu Linked Data z portalu LinkedData.org

Linked Data jest stosunkowo nowym zjawiskiem w sieci WWW, ideą dostępu do danych strukturalnych. Co to są dane strukturalne? WWW jest uniwersalnym nośnikiem informacji czytelnej dla człowieka – wszystkie strony internetowe, artykuły, aplikacje dają nam informacje, które możemy odczytać i zinterpretować, na przykład pytanie: „kiedy przyjedzie następny tramwaj?” i odpowiedź; “za 10 minut”. Takie pytanie i odpowiedź nie są jednak łatwe do odczytania przez komputery, które potrzebują informacji w ścisłej strukturze: (“Numer przystanku: 4398, linia tramwajowa: 11, odległość od przystanku: 0.8 km, itp.)

Informacja jest zwykle zapisana w bazach danych, które po wielu latach udoskonalania są bardzo wydajne w przechowywaniu i wyszukiwaniu danych, ale fatalne w wymianie informacji. Każda baza danych zawiera wiele kolumn, nazywanych raczej dowolnie i tylko lokalny system komputerowy umie z niej wyciągnąć dane. Nowy koncept, Linked Data, przybywa tutaj z pomocą. Schemat metadanych Linked Data, o nazwie  RDF (Resource Description Framework, struktura opisu zasobów), wymaga, aby dane nie były prezentowane w trudnych do odcyfrowania tabelach, ale w prostych zdaniach, składający się z podmiotu, orzeczenia i dopełnienia. Zamiast wymyślonych nazw kolumn używamy nazw standardowych, a zamiast nazwy podmiotu używamy jego identyfikator URI (Universal Resource Identifier, uniwersalny identyfikator zasobu). Przykładowo, trywialna dla człowieka informacja o tytule tego blogu (przecież możemy przeczytać go powyżej, prawda?) zamienia się w zdanie albo “trójkę” w slangu RDF [1) www.archiwa.net/index.php?option=com_content&view=article&id=593&catid=95:blog&Itemid=42, 2)  dc:title, 3) „Linked Data cz. 2: gdzie są dane?”]. Pierwsza część to adres URI jednoznacznie wskazujący na ten artykuł, druga to „tytuł” w konkretnym standardzie metadanych (Dublin Core), a trzecia część to tekst tytułu.

Czytaj dalej „Linked Data cz. 2: gdzie są dane?”

Digitalizacja a cyfryzacja

digitalizacja260

Digitalizacja. Ilustracja wykonana z wykorzystaniem pracy Junior Melo udotępnionej przez Wikimedia Commons [CC-BY-SA-3.0])

W języku polskim pojawiło się nowe słowo, ‘cyfryzacja’. Zostało ono spopularyzowane przez stworzenie w 2011 roku nowego ministerstwa Administracji i Cyfryzacji, obejmującego szeroki zakres działania, od mniejszości religijnych do informatyzacji. Słowo to zwiększyło tylko pogmatwanie, gdyż niektórzy zaczęli używać go zamiast słowa digitalizacja, które także jest używane w różnych znaczeniach. Czym więc jest digitalizacja, formatowanie cyfrowe i cyfryzacja?

Formatowanie cyfrowe

To, co dociera do naszych zmysłów ma najczęściej charakter sygnału ciągłego, t.j. takiego, który może przyjmować dowolne wartości w swojej domenie. Światło – zarówno w jego natężeniu jak i kolorze jest sygnałem ciągłym, takim jest też dźwięk (charakteryzujący się też natężeniem i tonem). Natomiast nuty albo tekst zapisany na papierze jest ciągiem dyskretnym, tj. ciągiem znaków, z których każdy jest wybrany z tylko ograniczonego zestawu możliwości.

Czytaj dalej „Digitalizacja a cyfryzacja”

Wstęp do standardów metadanych

Przy omawianiu zderzenia nauk bibliotecznych, archiwistycznych itp. z komputeryzacją i Internetem, centralne miejsce zajmują metadane i sposób ich wyrażania. Metadane to dane o danych, opisy, wyciągi, oznakowania, indeksy, katalogi itp. Ten artykuł jest wstępem do dyskusji i omówienia różnych aspektów metadanych i ich zastosowań.

Dlaczego w ogóle potrzebne są nam metadane? Najprostszą odpowiedzią jest “dlatego, że komputery są raczej nierozgarnięte”. Niech nas nie zmyli fakt, że umieją grać w szachy lepiej od ludzi – to jest zadanie względnie proste w porównaniem ze zrozumieniem języka naturalnego. Ale mimo tego, że są nierozgarnięte, komputery są w stanie przetworzyć dużo więcej informacji w dużo krótszym czasie niż mózg człowieka, więc jest w naszym interesie tłumaczyć zdania języka naturalnego na język zrozumiały przez komputery.

Czytaj dalej „Wstęp do standardów metadanych”