Reklama
Polityka_blog_top_bill_desktop
Polityka_blog_top_bill_mobile_Adslot1
Polityka_blog_top_bill_mobile_Adslot2
Kultura 2.0 - Cyfrowy wymiar przyszłości Kultura 2.0 - Cyfrowy wymiar przyszłości Kultura 2.0 - Cyfrowy wymiar przyszłości

17.05.2009
niedziela

Analityka kulturowa – drugie podejście

17 maja 2009, niedziela,

Na stronie kierowanej przez Lva Manovicha inicjatywy Software Studies pojawiły się nowe materiały związane z koncepcją analityki kulturowej.

O analityce kulturowej pisał już na swoim blogu Edwin Bendyk, ja też wspominałem o niej w „Kulturze Popularnej” poświęconej studiom nad oprogramowaniem. Wydaje mi się jednak, że dla osób zainteresowanych badaniem kultury zagadnienie jest na tyle ciekawe, że warto wrócić do tematu, zwłaszcza, że oprócz nowych tekstów na stronie Software Studies znalazły się także dwie prezentacje. Żeby je jakoś zareklamować, krótkie przypomnienie: Manovich dzięki otrzymanemu grantowi chce stworzyć otwartą sieciową platformę służącą analizie kultury na tej samej zasadzie, na jakiej bada się trendy na giełdzie, zjawiska metereologiczne, ruchy tektoniczne itp. Wielkie komputery przetwarzają gigantyczne ilości danych, najczęściej je wizualizując, a badacze próbują interpretować to, co widzą na wielkich ekranach. Tyle tylko, że tutaj „trzęsieniem ziemi” może być premiera nowej gry komputerowej, programu użytkowego czy filmu. Budowane przez zespół Manovicha narzędzie ma pozwolić na śledzenie w czasie rzeczywistym, co dzieje się z kulturą w sieci. A przecież w sieci ślad zostawia dziś gigantyczna część ludzkich aktywności związanych z kulturą.

Koncept jest o tyle szokujący, że sprowadza kulturę do poziomu zbioru danych, co budzi zrozumiały opór wśród humanistów. Zwłaszcza, że trzeba jednak nieco dobrej woli, żeby dać się przekonać, że wykres przygotowany na podstawie histogramów zdjęć obrazów pokazuje przejście od realizmu do modernizmu w malarstwie, albo że wykres długości ujęć w setkach filmów jest nam w stanie cokolwiek na temat tych filmów powiedzieć. Jeszcze niedawno mnie samemu wydawało się to dość groteskowe, ale chyba po prostu trzeba trochę czasu, żeby się z tym oswoić (mnie pomogła też zabawa z IBM ManyEyes). Trudno za to nie zgodzić się z Manovichem co do uzasadnienia takich poszukiwań: jeszcze nigdy produkcja kulturowa nie była tak wielka, toteż tworzenie teorii kultury w oparciu o małe ilości danych, uzasadnione w mniej zatłoczonej przeszłości, dziś ma coraz mniejszy sens. Zwłaszcza, że pod wpływem globalizacji „puchnie” świat profesjonalnych twórców (od początku lat 90-tych liczba nowych biennale sztuki wzrosła kilkukrotnie), a do sieci trafiają też zdigitalizowane wersje analogowych dzieł. Najważniejszym elementem zmiany paradygmatu jest jednak oczywiście Web 2.0 – to za sprawą internautów liczba danych w sieci rośnie o 60% (użytkownicy wytwarzają 70% nowych treści). Ciekawe są przykłady podawane przez Manovicha: na Flickra każdego miesiąca trafia 100 milionów zdjęć, ale to i tak nic przy Facebooku, gdzie tyle nowych zdjęć trafia w ciągu tygodnia. To wartość większa od liczby wszystkich obiektów zgromadzonych przez muzea sztuki na całym świecie. Nie mamy więc wyjścia: jeśli przyjmiemy, że chcemy wyjść poza poziom bardzo lokalnego opisu, trzeba skorzystać z pomocy maszyn. I być może opogodzić się z myślą, że przyszli guru kulturoznawstwa zamiast czytać Benjamina, Deleuze’a, Fiske, Foucault czy Latoura, ślęczą właśnie nad jakimś programem do statystyki.

Reklama
Polityka_blog_bottom_rec_mobile
Reklama
Polityka_blog_bottom_rec_desktop

Komentarze: 4

Dodaj komentarz »
  1. I znów przed oczyma staje mi powieść „Czarne oceany”, gdzie w tle przewinęło się komputerowe analizowanie zjawisk kultury. Coraz mniej mnie dziwi.

  2. Dla mnie te koncepcje są tyleż interesujące, co przerażające. Nie dlatego, że proponują przełamanie humanistycznej ortodoksji, bo wplecenie wątków z nowoczesnych nauk ścisłych do nauk społecznych może okazać się bardzo cenne. Ja jednak dostrzegam więcej analogii między tą „humanistyką 2.0” a analizą biznesową, która (niezależnie od tego, co powiedzą jej wybitni praktycy…) jest zbiorem narzędzi, dzięki którym formalizuje się i sprowadza do rangi „produktu” najprostsze nawet kwestie. Nie zapomina się, rzecz jasna, o „wartościach dodanych”, do opisu których również służą odpowiednie formuły…

  3. Bardzo możliwe, że tak się właśnie stanie. Narzędzia statystyczne na pewno mogą się do czegoś przydać i nie ma co biadolić, humaniści niepotrzebnie uciekają od matematyki (sam tak zrobiłem i potem wróciło).

    Przerażające jest to, że może rzeczywiście dojść do całkowitej zmiany metod działania. Tak stało się w ekonomii i widać właśnie, do czego to doprowadziło (jest jednak pewna różnica między badaniem przeszłych danych a przewidywaniem z nich przyszłości).

    Czyli statystyka i analiza danych tak, byle nie „zamiast”.

    Swoją drogą byłoby też miło, gdyby tacy specjaliści i badacze oprogramowania zamieszczali prezentacje w formatach dostępnych posiadaczom niemaków (do pliku ppt można dokopać się ręcznie, ale w OpenOffice prezentacja jest nie do obejrzenia). Brak takiej fundamentalnej wiedzy o oprogramowaniu stawia pod znakiem zapytania ich kompetencje…

  4. Statystyka około 100 lat temu przekształciła kompletnie sposób myślenia o społeczeństwie – a więc też funkcjonowania społeczeństwa. Może teraz pora na kulturę?

    Z drugiej strony metody te, jak już Mirku zauważyłeś, w ogóle nie dotykają warstwy znaczeń – więc jest jeszcze miejsce na interpretację i zrozumienie naukowe. Tylko pytanie, czy ktoś będzie tego jeszcze potrzebowal, nie wiem. Nikt nie interpretuje w końcu trzęsień ziemi pod względem symboliki.

    PS. Fajnie, że wróciłeś na bloga! 😉