Donnerstag, 26. Dezember 2013
Browserneuigkeiten
Google Chrome erlaubt ab Januar 2014 nur noch Extensions [via ghacks.net], die im Chrome Web Store aufgelistet werden. Als Begründung wird angeführt, dass über manche Extensions Malware an den Schutzmaßnahmen des Browsers vorbei eingeschleust werden. Außerdem sollen ab Sommer die Extensions einfacher und eindimensionaler werden, damit auch der Ressourcenverbrauch sich in Grenzen hält. [via liliputing]
Einige machen sich deshalb auf zu alten Ufern und migrieren zu Firefox. David Haden hat im Jurn-Blog einen 10-Punkte-Plan aufgestellt, wie man am besten migriert.
Irgendwie ist dies eine alte Geschichte, manche würden sagen: ein alter Ärger. Wer sich erinnert: Firefox galt einmal als schneller Browser, sehr viel schneller als der Internet Explorer. Viele wechselten dorthin und man konnte Firefox mit Hilfe der AddOns auch wunderbar an seine Bedürfnisse anpassen. Nur verlor der Browser dadurch nach und nach seine Schnelligkeit: Wenn man viele AddOns installiert hatte, dann konnte man warten, bis der Browser startete. Zusätzlichen Ärger brachte der beschleunigte Versionswechsel von Firefox: Hier waren dann immer ein Teil der AddOns nicht kompatibel und man musste so entweder temporär oder ganz auf lieb gewonnene Funktionalitäten verzichten. (Es gehört einem einfach nichts im Netz, alles kann von jetzt auf nachher weg sein).
Man wechselte deshalb gerne zu Chrome, der schnell war (oh, diese Versprechungen am Anfang, sei es beim Betriebssystem, sei es aber auch bei Anwendungen ...) und ebenfalls eine wachsende Anzahl von Extensions - so heißen hier die AddOns - bot. Wunderbar! Auch zusätzliche Funktionalitäten wie z.B. die Übersetzung von angezeigten Webseiten sind nicht zu verachten. Und nun dies! Da wird man also auf manches verzichten müssen, vielleicht aber auch nicht, falls die Entwickler von bisher frei angebotenen Extensions das noch in den Store einfügen.
Generell gilt sowieso, dass man möglichst mit mehreren Browsern arbeiten sollte, um beweglich zu bleiben. Neben dem Firefox gibt es übrigens noch Pale Moon, einen Browser, der auf Mozilla-Technologie beruht, aber bezüglich Schnelligkeit optimiert ist. Er kann mit Firefox-AddOns bestückt werden, stellt also eine Alternative dar. Opera fühlt sich nach wie vor recht schnell an, kann aber nicht mit Hilfe von AddOns angepasst werden wie Mozilla Firefox und Chrome. Und Safari ist auch noch eine Alternative, die eine gewisse Anzahl an Erweiterungen bietet.
Samstag, 21. Dezember 2013
Empfehlenswertes Tool zum Scannen mit dem Smartphone
Der nützliche Dokumentenscanner „CamScanner Free“ für Android und iOS wird im Weblog der Zukunftswerkstatt vorgestellt.
Samstag, 30. November 2013
Suche im Inhalt von Open Access-Zeitschriften
Mit der Elektronischen Zeitschriftenbibliothek (EZB), mit der Zeitschriftendatenbank (ZDB) und dem Directory of Open Access Journals (DOAJ) gibt es drei Suchinstrumente, mit deren Hilfe man leicht die Homepages von freien eJournals findet. Wenn man sich aber nicht mit der Ebene der Aufsätze zufrieden geben möchte, sondern mit Hilfe von Stichworten recherchieren will, ist das schwierig. Ein vom Umfang her schlecht bestimmbarer Teil dieser Open Access Journals ist auch in (Fach-)Datenbanken erschlossen, einige geben auf ihrer Homepage Auskunft, in welchen - Standard ist dies aber nicht!
Man kann sich mit folgender Methode behelfen, indem man sich einer Suchmaschine bedient:
- kopieren Sie die Webadresse der Homepage der Zeitschrift;
- laden Sie Google;
- geben Sie "site:" ein und setzen die Webadresse der Zeitschrift mit der Tastenkombination "strg" + "v" direkt dahinter;
- geben Sie Ihre Suchwörter ein und setzen Sie sie in Anführungszeichen.
Mittwoch, 6. November 2013
iGoogle ist nicht mehr
iGoogle war die Startpage von Google. So genannte Home- oder Startpages wurden vor ca. 10 Jahren von den großen Providern - MSN, Yahoo! und Google - erfunden, damit Nutzer möglichst flexible, personalisierbare, inhaltsreiche Seiten anlegen können, die sie als ihre "Startseite" im Browser verwenden sollten. Ein "Honigtopf" also, verlockend, um die Leute anzuziehen und klebrig, um sie nicht wieder loszulassen. Heute ist das Facebook ...
Gleichwohl: die Funktionalität dieser Seiten war so gut, dass man sie gerne verwendete. Es kamen auch kleine Startups, die das nachprogrammierten, wie beispielsweise netvibes. iGoogle war sehr beliebt, weil einerseits die Integration mit anderen Google-Diensten gut lief, aber auch, weil die Seite sehr gut angepaßt werden konnte. Manche machten sie zu ihrer Nachrichtenzentrale. Jedenfalls hat Google schon länger angekündigt, dass die Seite am 01.11.2013 schließt und so ist es nun gekommen. Alternativen?
Phil Bradley stellt deren 24 vor: Da müßte doch etwas zu finden sein? Ich habe gestern iGoogle-Portal angeschaut, das dem ursprünglichen iGoogle zu entsprechen scheint.
Wenn man so etwas für sich einrichtet, sollte man darauf achten,
- dass hinzufügen und abwählen leicht vonstatten geht,
- dass Registerblätter einem helfen, die Informationsquellen zu gliedern,
- dass es möglichst gut anpaßbar an die eigenen Zwecke ist.
Dienstag, 29. Oktober 2013
Medienwissen kompakt: Social Media
Das neue Buch "Social Media" von Jan-Hinrik Schmidt löst das ein, was der Titel der Reihe ("Medienwissen kompakt") verspricht, in der es erschienen ist. Es handelt sich um eine auf exakt 100 Seiten komprimierte Darstellung des Web 2.0 (bzw. der Sozialen Medien bzw. des Sozialen Webs) aus kommunikationswissenschaftlicher Sicht, die rundum gelungen ist. Klar und anschaulich geschrieben, ordnet es zentrale Informationen und Debatten rund um "das neue Netz" (so der Titel einer früheren Veröffentlichung des Autors) anhand von Leitfragen wie:
Das fünfte Kapitel widmet sich verschiedenen Möglichkeiten, wie angesichts des vielbeschworenen "information overload" Orientierung zu erlangen ist (Algorithmen, Bewertungen, Tagging etc.). Hierunter subsumiert der Autor auch das Wiki-Prinzip, das vor allem anhand der Wikipedia dargestellt wird (S. 66 ff.).
Im sechsten Kapitel weist Schmidt auf das Partizipationsparadox hin, das kurz gesagt darin besteht, dass die Web 2.0-Plattformen einerseits von der Beteiligung der Nutzer leben, als kommerzielle Dienste die Nutzer aber andererseits nicht beteiligen, wenn es um die Ausgestaltung der Plattformen geht.
Im Fazit (Kapitel 7) wagt der Autor eine Prognose, wenn er über die Zukunft der sozialen Medien schreibt:
Das Buch schließt mit dem Appell an uns alle, unseren Einfluss auf soziale Medien wahrzunehmen und das Feld nicht (kampflos) den großen Anbietern zu überlassen.
- Verschwindet durch soziale Medien die Privatsphäre? (Kapitel 3: Selbstdarstellung und Privatsphäre in sozialen Medien)
- Machen soziale Medien jeden zum Journalisten? (Kapitel 4: Medienöffentlichkeit und Journalismus)
- Bringen soziale Medien Wissen für alle? (Kapitel 5: Teilhabe an Wissenswelten)
- Sind die sozialen Medien partizipativ? (Kapitel 6: Das Partizipationsparadox)
- Netzwerkplattformen (= Soziale Netzwerke, Platzhirsch: Facebook)
- Multimediaplattformen (YouTube für Videos, Flickr für Fotos etc.)
- Blogs (inkl. Microblogs, Platzhirsch: Twitter)
- Wikis (allen voran Wikipedia)
"... als Sammelbegriff für bestimmte Angebote und Formen digital vernetzter Medien, die das onlinebasierte Bearbeiten und Veröffentlichen von Inhalten aller Art sowie die Beziehungspflege und den Austausch zwischen Menschen erleichtern."Dabei seien zwei wichtige Aspekte immer im Hinterkopf zu behalten:
"Soziale Medien entfalten erst im Zusammenspiel mit Menschen, die sie für ihre Zwecke einsetzen, ihre Wirkung. Und diese Wirkung ist Teil unseres alltäglichen Lebens, nicht auf eine virtuelle Realität beschränkt" (S. 21).Besonders gelungen ist das dritte Kapitel, in dem Schmidt den für das Verständnis des Web 2.0 außerordentlich wichtigen Begriff der "persönlichen Öffentlichkeiten" einführt und erläutert. Es handelt sich um einen (auch medienhistorisch) neuen Typ von Öffentlichkeit, der an die Seite der Medienöffentlichkeit tritt und mit dieser vielfach verwoben ist.
"Zusammengefasst entstehen persönliche Öffentlichkeiten in den sozialen Medien also dort, wo Menschen Informationen von persönlicher Relevanz für ihr erweitertes soziales Netzwerk zugänglich machen und damit einen Austausch mit anderen anstoßen möchten" (S. 27).Damit ändert sich das, was man "öffentliche Kommunikation" nennen könnte, grundlegend:
"Journalistische Medien schaffen gesellschaftliche Öffentlichkeit für Themen von breiter Relevanz, soziale Medien ermöglichen persönliche Öffentlichkeiten, in denen Menschen mit ihrem sozialen Umfeld in Kontakt bleiben können" (S. 28).Den "Wandel von Medienöffentlichkeit" (S. 43) nimmt das vierte Kapitel unter die Lupe, das in dem Konzept der "vernetzten Öffentlichkeit" gipfelt:
"Soziale Medien schaffen somit 'vernetzte Öffentlichkeit' in dreifacher Hinsicht: Sie beruhen technisch gesehen auf vernetzten Computern, in sozialer Hinsicht auf Beziehungsnetzwerken zwischen Menschen, die wiederum miteinander verknüpfte Informationsströme teilen" (S. 52).Dabei zeigt sich, dass soziale Medien die traditionellen Medien nicht etwa überflüssig machen, sondern den Journalismus im klassischen Sinn bei dessen Hauptfunktionen sogar unterstützen können ("die Bürger über aktuelle, relevante Themen zu informieren, Transparenz für Vorgänge in der Gesellschaft herzustellen und Raum für Diskussionen über gemeinsame Werte und Ziele zu schaffen", S. 56).
Das fünfte Kapitel widmet sich verschiedenen Möglichkeiten, wie angesichts des vielbeschworenen "information overload" Orientierung zu erlangen ist (Algorithmen, Bewertungen, Tagging etc.). Hierunter subsumiert der Autor auch das Wiki-Prinzip, das vor allem anhand der Wikipedia dargestellt wird (S. 66 ff.).
Im sechsten Kapitel weist Schmidt auf das Partizipationsparadox hin, das kurz gesagt darin besteht, dass die Web 2.0-Plattformen einerseits von der Beteiligung der Nutzer leben, als kommerzielle Dienste die Nutzer aber andererseits nicht beteiligen, wenn es um die Ausgestaltung der Plattformen geht.
Im Fazit (Kapitel 7) wagt der Autor eine Prognose, wenn er über die Zukunft der sozialen Medien schreibt:
"Doch soziale Medien erfüllen so viele Zwecke - sie machen persönliche Öffentlichkeiten möglich, erleichtern die rasche Verbreitung von Informationen, unterstützen Zusammenarbeit und das gemeinsame Sammeln, Filtern und Bearbeiten von Wissen -, dass die Prinzipien von Netzwerk- oder Videoplattformen, Wikis oder Blogs nicht wieder verschwinden werden, egal wie die Anbieter heißen" (S. 99).
Das Buch schließt mit dem Appell an uns alle, unseren Einfluss auf soziale Medien wahrzunehmen und das Feld nicht (kampflos) den großen Anbietern zu überlassen.
Donnerstag, 17. Oktober 2013
Recherche 2.0 - unser neues Buch zur Internetrecherche im Web 2.0-Zeitalter
Nun ist es (endlich) erschienen, unser neues Buch: "Recherche 2.0. Finden und Weiterverarbeiten in Studium und Beruf". Jürgen Plieninger, Christian Rapp und ich versuchen darin, eine praxisnahe Anleitung zur professionellen Internetrecherche und zum webbasierten Wissensmanagement zu geben. Im Klappentext steht:
"Diese Einführung unterscheidet sich von anderen, indem sie breit in die wissenschaftliche Internetrecherche einführt, das methodische Vorgehen und die Analyse der Ergebnisse eingehend behandelt und vor allem die Recherche in und mit Hilfe von Web 2.0-Diensten systematisch berücksichtigt. Dabei wird die Recherche als Teil des umfassenderen Ablaufs „Finden – Bewerten – Festhalten – Auf dem Laufenden bleiben” begriffen. Es werden also über die Recherche hinaus Werkzeuge vorgestellt, mit denen man die Ergebnisse festhalten kann (Notizbücher, soziale Bookmarkdienste und Literaturverwaltung) und es wird behandelt, wie man bezogen auf seine Themen und auf das Recherchieren selbst up to date bleibt. Ein Buch aus der Praxis für die Praxis: für Wissenschaftler, für Studierende und für jene, die bereits im Beruf sind und methodisch umfassend und effektiv das wissenschaftliche Recherchieren lernen wollen."
Die Links, die im Buch vorkommen, haben wir hier gesammelt. Der folgende Text basiert auf der Einleitung des Buches und versucht eine Beschreibung des Inhalts:
Professionelles Recherchieren zählt ohne Zweifel zu den Kernbereichen wissenschaftlichen Arbeitens. Eine sorgfältige Recherche bildet die Grundlage für eine gute wissenschaftliche Arbeit. Aber was heißt eigentlich Recherchieren? Häufig wird darunter verkürzt das Suchen nach Literatur und Inhalten verstanden, das sich mittlerweile überwiegend im Internet abspielt (und dort vor allem bei Google). Das ist aber zu kurz gedacht. Professionelle Recherche umfasst nämlich nicht nur das Finden der benötigten Informationen, sondern schließt das systematische Festhalten dieser Informationen mit ein und fragt auch danach, wie wir in unseren Arbeits- und Interessensgebieten auf dem Laufenden bleiben können.
Und noch ein zweiter Punkt fällt häufig unter den Tisch. Überlegen Sie sich, welches Bild Sie vor Augen haben, wenn Sie an den Vorgang des Recherchierens denken? Wenn es Ihnen geht wie den meisten TeilnehmerInnen unserer Seminare, dann sehen Sie eine Person, die alleine vor dem Bildschirm sitzt (oder am Bücherregal der Bibliothek steht). Recherchieren gilt zu Unrecht immer noch als Einzelsportart. Das wird unserer Welt nicht mehr gerecht. Wir verfügen mit dem Web (2.0) über eine globale Plattform zum Sammeln, Austauschen und gemeinsamen Erstellen von Informationen aller Art. Da kann es nicht überraschen, dass sich auch und gerade das wissenschaftliche Arbeiten grundlegend ändert.
Bezogen auf den Teilbereich Recherche können wir von Recherchieren 2.0 sprechen. Was heißt das? Es bedeutet, dass wir nicht mehr darauf beschränkt sind, uns alleine vor dem Rechner mit Hilfe von Datenbanken und Katalogen die notwendigen Informationen zu beschaffen, sondern dass wir mit Personen aus aller Welt in Verbindung stehen (können), die vergleichbaren Fragestellungen nachgehen. Das ist der Grund dafür, dass wir in diesem Buch durchgängig von zwei Wegen sprechen, um Informationen zu finden, festzuhalten und um auf dem Laufenden zu bleiben: einmal den herkömmlichen Weg über Maschinen (Suchhilfen und ihre Algorithmen) und zum zweiten über Menschen. Recherche im Web 2.0-Zeitalter lässt sich nicht mehr vom Aufbau und der Pflege eines Personal Learning Networks trennen.
Das Web 2.0 wird häufig auch als Lese-/Schreibe-Web bezeichnet und dadurch von dem Web vor dem Aufkommen von Wikis, Blogs und sozialen Netzwerken abgegrenzt, das (weit überwiegend) ein reines Lese-Web war. Der entscheidende Unterschied zum heutigen Web besteht also darin, dass wir Webseiten nicht mehr nur lesen können, wie das in den Anfangsjahren des Internet der Fall war, sondern dass wir problemlos und schnell in der Lage sind, selbst im Web zu veröffentlichen. Das bringt faszinierende neue Möglichkeiten mit sich, bedeutet aber auch, dass wir uns auf die Glaubwürdigkeit dessen, was wir im Internet finden, nicht mehr ohne weiteres verlassen können. Prinzipiell kann heute jeder veröffentlichen, was er will. Bezogen auf die Recherche heißt das, dass dem Bewerten von Informationen eine noch größere Bedeutung zukommt. Diesem Aspekt haben wir deshalb einen eigenen Teil gewidmet. Damit ergibt sich folgende Gliederung in vier Teile:
Finden: Im umfangreichsten Teil des Buches stellen wir Ihnen die wichtigsten Suchdienste und -strategien praxisnah vor. Den Schwerpunkt haben wir auf den Wissenschaftsbetrieb und das Studieren gelegt. Nach einem Abschnitt zu den Grundlagen der Suche beschäftigen wir uns am Beispiel von Google mit der erweiterten Suche. Die dortigen Filtermöglichkeiten erlauben es Ihnen, der Suchmaschine genauer zu “sagen”, was Sie von ihr wollen, und tragen damit zu einer effizienteren Recherche bei. Die Nutzung verschiedener Suchmaschinen steht im Mittelpunkt des folgenden Abschnitts. Wir behandeln allgemeine Suchmaschinen, Meta-Suchmaschinen und werfen einen kurzen Blick auf das Feld der semantischen Suche. Daran schließt sich die Vorstellung spezieller Suchinstrumente an, die es beispielsweise erlauben, sich schnell einen Überblick über ein neues Themengebiet zu verschaffen (Wikimindmap) oder ähnliche Seiten zu finden wie diejenige, auf der man sich gerade befindet.
Einen grundlegend anderen Weg der Recherche bieten die Suchhilfen, die wir uns im Abschnitt “Web 2.0 und Recherche” anschauen. Ging es bislang darum, einen maschinell erstellten Index mit Hilfe der jeweiligen Algorithmen für unsere Suchanliegen zu nutzen, stehen nun die Menschen im Zentrum, die Social Bookmarking-Dienste (Delicious, Diigo) nutzen oder Präsentationen (Slideshare) sowie andere Dokumente zur Verfügung stellen (Scribd, Docstoc). Ein weiterer Abschnitt behandelt einige besonders leistungsfähige Wissenschafts- und Literatursuchmaschinen. Ergänzend dazu bietet der anschließende Abschnitt wichtige Hinweise zum Umgang mit Katalogen und Fachdatenbanken. Ein Beispiel aus unserer beruflichen Praxis rundet die Darstellung ab und zeigt die verschiedenen Suchhilfen im Zusammenspiel.
Bewerten: Im zweiten Teil geben wir Ihnen Hinweise dazu, wie Sie im Rechercheprozess die Verlässlichkeit und Relevanz einer Quelle prüfen können. Hierfür gibt es mehrere Möglichkeiten, etwa die Bewertung der Qualität eines Ergebnisses anhand der Qualität der Informationsquelle, der sie entstammt. Eine andere wichtige Möglichkeit besteht darin, dass Sie Ergebnisse vergleichen, um zu einer validen Bewertung zu kommen.
Festhalten: Im dritten Teil geht es darum, wie Sie das, was Sie bei Ihren Recherchen gefunden haben, systematisch festhalten können. Wir stellen Ihnen verschiedene Werkzeuge vor, mit denen sich Inhalte, Links und Literaturangaben so ablegen lassen, dass man sie wieder findet. Das ist natürlich das wichtigste Ziel des webbasierten Wissensmanagements, aber es ist nicht das einzige. Daneben kann wichtig sein, dass Sie von überall her auf Ihre Informationen zugreifen oder dass Sie diese mit anderen teilen können. Zum Festhalten von Links stellen wir Ihnen mit Google Bookmarks und Diigo zwei webbasierte Dienste vor, die das Spektrum an verfügbaren Diensten gut veranschaulichen. Am Beispiel von Evernote geht es um das Festhalten von Inhalten. Ein weiterer ausführlicher Abschnitt widmet sich den für das wissenschaftliche Arbeiten zentralen Literaturverwaltungsprogrammen.
Auf dem Laufenden bleiben: Der vierte Teil zeigt Ihnen verschiedene Wege auf, wie Sie in Ihren Interessens- und Arbeitsgebieten auf dem Laufenden bleiben können. Wie schon beim “Finden” gibt dafür im wesentlichen zwei Wege: Mit Hilfe von Maschinen und mit Hilfe von Menschen. Der Königsweg besteht in der Kombination von beidem. Wir stellen beide Wege vor, einmal den Weg mittels Menschen, mit denen man sich auf Plattformen wie Facebook und Twitter oder auf Diensten wie Diigo oder Worldcat verbindet und aus denen mit der Zeit ein Personal Learning Network entsteht. Zum zweiten den “maschinellen” Weg mittels RSS-Feeds. Hier beschäftigen wir uns damit, wie man RSS-Feeds findet, abonniert, und wie man mit Hilfe eines Feedreaders systematisches Wissensmanagement betreibt und sich ein Archiv zu den Interessens- und Arbeitsgebieten aufbaut. Den Abschluss des Kapitels und damit des Buches bilden einige Hinweise dazu, wie Sie – angesichts der dynamischen Entwicklung im Web – Ihren Werkzeugkoffer für die professionelle Recherche auf dem Laufenden halten können.
Noch ein Hinweis, um Missverständnisse zu vermeiden: Wir haben die Darstellung in vier Teile (Finden – Bewerten – Festhalten – Auf dem Laufenden bleiben) unterteilt, die man für Phasen in einem wohlgeordneten Prozess der Recherche halten könnte. Das ist nicht der Fall, denn jede Recherche ist anders, wohl aber gehören diese vier Teilbereiche zu jeder professionellen Recherche. Die Reihenfolge geht in der Praxis häufig durcheinander und stellt sich, was die Gewichtung der Bereiche und Auswahl der einzusetzenden Instrumente betrifft, für jede Recherche anders dar. Wir hoffen aber, dass wir Ihnen durch die Trennung in vier Teilbereiche Orientierung im komplexen Feld der Recherche ermöglichen können und dass die Vorstellung der wichtigsten Werkzeuge und Vorgehensweisen dazu beitragen wird, Ihre Recherchen nachhaltig zu verbessern.
Das führt uns zum Ziel des Buches: Nach der Lektüre – so hoffen wir – verfügen Sie über ein Arsenal an Werkzeugen und Strategien, um verschiedenste Recherchen effizient zu planen und durchzuführen, von der simplen Suche nach der Antwort auf eine Informationsfrage über den Einstieg in ein neues Themengebiet bis hin zur professionellen Recherche für Ihre Abschlussarbeit.
"Diese Einführung unterscheidet sich von anderen, indem sie breit in die wissenschaftliche Internetrecherche einführt, das methodische Vorgehen und die Analyse der Ergebnisse eingehend behandelt und vor allem die Recherche in und mit Hilfe von Web 2.0-Diensten systematisch berücksichtigt. Dabei wird die Recherche als Teil des umfassenderen Ablaufs „Finden – Bewerten – Festhalten – Auf dem Laufenden bleiben” begriffen. Es werden also über die Recherche hinaus Werkzeuge vorgestellt, mit denen man die Ergebnisse festhalten kann (Notizbücher, soziale Bookmarkdienste und Literaturverwaltung) und es wird behandelt, wie man bezogen auf seine Themen und auf das Recherchieren selbst up to date bleibt. Ein Buch aus der Praxis für die Praxis: für Wissenschaftler, für Studierende und für jene, die bereits im Beruf sind und methodisch umfassend und effektiv das wissenschaftliche Recherchieren lernen wollen."
Die Links, die im Buch vorkommen, haben wir hier gesammelt. Der folgende Text basiert auf der Einleitung des Buches und versucht eine Beschreibung des Inhalts:
Professionelles Recherchieren zählt ohne Zweifel zu den Kernbereichen wissenschaftlichen Arbeitens. Eine sorgfältige Recherche bildet die Grundlage für eine gute wissenschaftliche Arbeit. Aber was heißt eigentlich Recherchieren? Häufig wird darunter verkürzt das Suchen nach Literatur und Inhalten verstanden, das sich mittlerweile überwiegend im Internet abspielt (und dort vor allem bei Google). Das ist aber zu kurz gedacht. Professionelle Recherche umfasst nämlich nicht nur das Finden der benötigten Informationen, sondern schließt das systematische Festhalten dieser Informationen mit ein und fragt auch danach, wie wir in unseren Arbeits- und Interessensgebieten auf dem Laufenden bleiben können.
Und noch ein zweiter Punkt fällt häufig unter den Tisch. Überlegen Sie sich, welches Bild Sie vor Augen haben, wenn Sie an den Vorgang des Recherchierens denken? Wenn es Ihnen geht wie den meisten TeilnehmerInnen unserer Seminare, dann sehen Sie eine Person, die alleine vor dem Bildschirm sitzt (oder am Bücherregal der Bibliothek steht). Recherchieren gilt zu Unrecht immer noch als Einzelsportart. Das wird unserer Welt nicht mehr gerecht. Wir verfügen mit dem Web (2.0) über eine globale Plattform zum Sammeln, Austauschen und gemeinsamen Erstellen von Informationen aller Art. Da kann es nicht überraschen, dass sich auch und gerade das wissenschaftliche Arbeiten grundlegend ändert.
Bezogen auf den Teilbereich Recherche können wir von Recherchieren 2.0 sprechen. Was heißt das? Es bedeutet, dass wir nicht mehr darauf beschränkt sind, uns alleine vor dem Rechner mit Hilfe von Datenbanken und Katalogen die notwendigen Informationen zu beschaffen, sondern dass wir mit Personen aus aller Welt in Verbindung stehen (können), die vergleichbaren Fragestellungen nachgehen. Das ist der Grund dafür, dass wir in diesem Buch durchgängig von zwei Wegen sprechen, um Informationen zu finden, festzuhalten und um auf dem Laufenden zu bleiben: einmal den herkömmlichen Weg über Maschinen (Suchhilfen und ihre Algorithmen) und zum zweiten über Menschen. Recherche im Web 2.0-Zeitalter lässt sich nicht mehr vom Aufbau und der Pflege eines Personal Learning Networks trennen.
Das Web 2.0 wird häufig auch als Lese-/Schreibe-Web bezeichnet und dadurch von dem Web vor dem Aufkommen von Wikis, Blogs und sozialen Netzwerken abgegrenzt, das (weit überwiegend) ein reines Lese-Web war. Der entscheidende Unterschied zum heutigen Web besteht also darin, dass wir Webseiten nicht mehr nur lesen können, wie das in den Anfangsjahren des Internet der Fall war, sondern dass wir problemlos und schnell in der Lage sind, selbst im Web zu veröffentlichen. Das bringt faszinierende neue Möglichkeiten mit sich, bedeutet aber auch, dass wir uns auf die Glaubwürdigkeit dessen, was wir im Internet finden, nicht mehr ohne weiteres verlassen können. Prinzipiell kann heute jeder veröffentlichen, was er will. Bezogen auf die Recherche heißt das, dass dem Bewerten von Informationen eine noch größere Bedeutung zukommt. Diesem Aspekt haben wir deshalb einen eigenen Teil gewidmet. Damit ergibt sich folgende Gliederung in vier Teile:
Finden: Im umfangreichsten Teil des Buches stellen wir Ihnen die wichtigsten Suchdienste und -strategien praxisnah vor. Den Schwerpunkt haben wir auf den Wissenschaftsbetrieb und das Studieren gelegt. Nach einem Abschnitt zu den Grundlagen der Suche beschäftigen wir uns am Beispiel von Google mit der erweiterten Suche. Die dortigen Filtermöglichkeiten erlauben es Ihnen, der Suchmaschine genauer zu “sagen”, was Sie von ihr wollen, und tragen damit zu einer effizienteren Recherche bei. Die Nutzung verschiedener Suchmaschinen steht im Mittelpunkt des folgenden Abschnitts. Wir behandeln allgemeine Suchmaschinen, Meta-Suchmaschinen und werfen einen kurzen Blick auf das Feld der semantischen Suche. Daran schließt sich die Vorstellung spezieller Suchinstrumente an, die es beispielsweise erlauben, sich schnell einen Überblick über ein neues Themengebiet zu verschaffen (Wikimindmap) oder ähnliche Seiten zu finden wie diejenige, auf der man sich gerade befindet.
Einen grundlegend anderen Weg der Recherche bieten die Suchhilfen, die wir uns im Abschnitt “Web 2.0 und Recherche” anschauen. Ging es bislang darum, einen maschinell erstellten Index mit Hilfe der jeweiligen Algorithmen für unsere Suchanliegen zu nutzen, stehen nun die Menschen im Zentrum, die Social Bookmarking-Dienste (Delicious, Diigo) nutzen oder Präsentationen (Slideshare) sowie andere Dokumente zur Verfügung stellen (Scribd, Docstoc). Ein weiterer Abschnitt behandelt einige besonders leistungsfähige Wissenschafts- und Literatursuchmaschinen. Ergänzend dazu bietet der anschließende Abschnitt wichtige Hinweise zum Umgang mit Katalogen und Fachdatenbanken. Ein Beispiel aus unserer beruflichen Praxis rundet die Darstellung ab und zeigt die verschiedenen Suchhilfen im Zusammenspiel.
Bewerten: Im zweiten Teil geben wir Ihnen Hinweise dazu, wie Sie im Rechercheprozess die Verlässlichkeit und Relevanz einer Quelle prüfen können. Hierfür gibt es mehrere Möglichkeiten, etwa die Bewertung der Qualität eines Ergebnisses anhand der Qualität der Informationsquelle, der sie entstammt. Eine andere wichtige Möglichkeit besteht darin, dass Sie Ergebnisse vergleichen, um zu einer validen Bewertung zu kommen.
Festhalten: Im dritten Teil geht es darum, wie Sie das, was Sie bei Ihren Recherchen gefunden haben, systematisch festhalten können. Wir stellen Ihnen verschiedene Werkzeuge vor, mit denen sich Inhalte, Links und Literaturangaben so ablegen lassen, dass man sie wieder findet. Das ist natürlich das wichtigste Ziel des webbasierten Wissensmanagements, aber es ist nicht das einzige. Daneben kann wichtig sein, dass Sie von überall her auf Ihre Informationen zugreifen oder dass Sie diese mit anderen teilen können. Zum Festhalten von Links stellen wir Ihnen mit Google Bookmarks und Diigo zwei webbasierte Dienste vor, die das Spektrum an verfügbaren Diensten gut veranschaulichen. Am Beispiel von Evernote geht es um das Festhalten von Inhalten. Ein weiterer ausführlicher Abschnitt widmet sich den für das wissenschaftliche Arbeiten zentralen Literaturverwaltungsprogrammen.
Auf dem Laufenden bleiben: Der vierte Teil zeigt Ihnen verschiedene Wege auf, wie Sie in Ihren Interessens- und Arbeitsgebieten auf dem Laufenden bleiben können. Wie schon beim “Finden” gibt dafür im wesentlichen zwei Wege: Mit Hilfe von Maschinen und mit Hilfe von Menschen. Der Königsweg besteht in der Kombination von beidem. Wir stellen beide Wege vor, einmal den Weg mittels Menschen, mit denen man sich auf Plattformen wie Facebook und Twitter oder auf Diensten wie Diigo oder Worldcat verbindet und aus denen mit der Zeit ein Personal Learning Network entsteht. Zum zweiten den “maschinellen” Weg mittels RSS-Feeds. Hier beschäftigen wir uns damit, wie man RSS-Feeds findet, abonniert, und wie man mit Hilfe eines Feedreaders systematisches Wissensmanagement betreibt und sich ein Archiv zu den Interessens- und Arbeitsgebieten aufbaut. Den Abschluss des Kapitels und damit des Buches bilden einige Hinweise dazu, wie Sie – angesichts der dynamischen Entwicklung im Web – Ihren Werkzeugkoffer für die professionelle Recherche auf dem Laufenden halten können.
Noch ein Hinweis, um Missverständnisse zu vermeiden: Wir haben die Darstellung in vier Teile (Finden – Bewerten – Festhalten – Auf dem Laufenden bleiben) unterteilt, die man für Phasen in einem wohlgeordneten Prozess der Recherche halten könnte. Das ist nicht der Fall, denn jede Recherche ist anders, wohl aber gehören diese vier Teilbereiche zu jeder professionellen Recherche. Die Reihenfolge geht in der Praxis häufig durcheinander und stellt sich, was die Gewichtung der Bereiche und Auswahl der einzusetzenden Instrumente betrifft, für jede Recherche anders dar. Wir hoffen aber, dass wir Ihnen durch die Trennung in vier Teilbereiche Orientierung im komplexen Feld der Recherche ermöglichen können und dass die Vorstellung der wichtigsten Werkzeuge und Vorgehensweisen dazu beitragen wird, Ihre Recherchen nachhaltig zu verbessern.
Das führt uns zum Ziel des Buches: Nach der Lektüre – so hoffen wir – verfügen Sie über ein Arsenal an Werkzeugen und Strategien, um verschiedenste Recherchen effizient zu planen und durchzuführen, von der simplen Suche nach der Antwort auf eine Informationsfrage über den Einstieg in ein neues Themengebiet bis hin zur professionellen Recherche für Ihre Abschlussarbeit.
Sonntag, 29. September 2013
Keynote von Don Tapscott über die Zukunft der Universität
Wie immer geistreich und unterhaltsam: Don Tapscott fasst zunächst anschaulich die Grundgedanken von "Wikinomics" und "Macrowikinomics" zusammen, um sich dann der Zukunft der Hochschulbildung zuzuwenden. Es lohnt sich, die 80 min zu investieren:
Die wichtigsten Bücher, die angesprochen werden:
Die wichtigsten Bücher, die angesprochen werden:
Sonntag, 1. September 2013
Übersetzte Suche
Im Mai meldeten wir, dass Google den Dienst "Google Translate" eingestellt hat.
Es gibt hierfür einen Ersatz und einen halben Ersatz:
- Der Dienst 2lingual Google Search übersetzt weiterhin die Suchbegriffe in eine Fremdsprache und zeigt dann die Ergebnisse an.
- Yahoo! bietet in seiner erweiterten Suche ziemlich weit unten die Option an, in fremdsprachigen Dokumenten zu recherchieren. Allerdings werden hier die Suchbegriffe nicht übersetzt, sondern Dokumente in der angegebenen Fremdsprache, die - entweder auf der Seite selbst oder im Seitenquelltext - die angegebenen Suchbegriffe enthalten. Es stellt dies also keine echte Fremdsprachensuche dar!
Labels:
erweiterte Suche,
google translated search,
recherche,
recherche 2.0,
suchergebnis,
translated search,
translation,
übersetzte suche,
übersetzung,
yahoo
Mittwoch, 28. August 2013
Montag, 26. August 2013
Diigo mit neuem Outfit und Geschäftsmodell
Diigo, der große Konkurrent des sozialen Bookmarkdienstes delicious erscheint in neuem Design,
das viel klarer und - im Moment - ohne die bisher hinzugefügte Werbung daherkommt. Offensichtlich hatte man mit seinem Geschäftsmodell Erfolg - beispielsweise, dass Mehrwertdienste wie das unbegrenzte Ablegen von Inhalten oder das Highlighten von Textsetellen dem "Premium"-Bezahlmodell vorbehalten ist.
Wer die Inhalte sonstwo online ablegen möchte, muss beispielsweise das Notizbuch Evernote verwenden.
Was auch neu gestaltet wurde, ist die Extension für Chrome, die vielfältige Verarbeitung der zu speichernden Webquelle erlaubt:
Alles in allem ist Diigo ein hervorragendes, an die eigenen Bedürfnisse anpassungsfähiges Tool und - das muss auch hervorgehoben werden - immer noch ein Web 2.0-Instrument, indem man hier sein Netzwerk pflegen oder auch Gruppen aufbauen kann. Oder auch nur einen Blick über den Tellerrand werfen kann, indem man auf Diigo nach tags sucht und sieht, was andere User abgespeichert haben!
Wer mehr über den Relaunch lesen möchte, kann im Diigo Blog schmökern oder in TechCrunch.
Freitag, 2. August 2013
Don Tapscott über die Net Generation
Auf sehr unterhaltsame Weise erklärt Don Tapscott die Eigenheiten und das Potenzial der digital natives bzw. der net generation. Zentraler Punkt für uns digital immigrants dabei ist das, was auch ich immer wieder in meinen Vorträgen zu Themen rund um das Web 2.0 hervorhebe: "We fear what we don't understand"...
Die beiden Bücher, auf die sich Tapscott bezieht, sind nach wie vor überaus lesenswert:
Watch live streaming video from ideacity at livestream.com
Die beiden Bücher, auf die sich Tapscott bezieht, sind nach wie vor überaus lesenswert:
Mittwoch, 24. Juli 2013
Near-Operator bei Bing
Wussten Sie, dass nicht nur Google (entweder mit einen * zwischen den beiden Suchwörtern, aber auch mit AROUND(x), wobei x=die maximale Zahl der Wörter zwischen den beiden Suchbegriffen angibt), sondern auch Bing einen “near”-Operator bietet? Karen Blakeman hat eine Matrix erstellt, in welcher die Suchspezifikationen für Google, Bing und DuckDuckGo aufgelistet sind. Sehr schön! [via einem Google-kritischen Eintrag in Blakemans Blog]
Mittwoch, 26. Juni 2013
#exif13: MOOC zum Wissenschaftlichen Arbeiten
Eigentlich ist dies ein Eintrag von Ragnar, denn er hat mich durch einen Link auf dieses Angebot gebracht - einen Online-Kurs zum Wissenschaftlichen Arbeiten.
Der Zeitplan sieht so aus:
"Getreu dem Motto “Nach dem MOOC ist vor dem MOOC” werden wir im Juni und Juli 2013 einen weiteren MOOC anbieten. Thema wird wissenschaftliches Arbeiten sein und eingeladen sind alle (und diesmal wirklich alle), die sich mit Fragen zu Hypothesen, Methoden, Statistik oder dem Verfassen einer wissenschaftlichen Arbeit beschäftigen."[via Homepage bei der Fernuni Hagen]
Der Zeitplan sieht so aus:
- 12.06.2013, 18 Uhr: Was ist wissenschaftliches Arbeiten?
- 20.06.2013, 18 Uhr: Wie funktioniert eine Literaturrecherche?
- 27.06.2013, 18 Uhr: Wozu brauche ich eine Forschungsfrage?
- 04.07.2013, 18 Uhr: Wie findet man methodisch Antworten auf die Forschungsfrage?
- 11.07.2013, 18 Uhr: Wozu braucht man ab und an Mathematik und Statistik im Forschungsprozess?
- 18.07.2013, 18 Uhr: Auf den Punkt gebracht: Wie schreibe ich eine wissenschaftliche Arbeit?
Dienstag, 25. Juni 2013
Wie lassen sich die globalen Probleme lösen?
Laut Don Tapscott besteht Anlass zur Hoffnung, denn es bilden sich dank des Web 2.0 neuartige Akteure heraus, die er "Global Solution Networks" nennt. In einem interessanten Vortrag auf der SXSW 2013, über den ich an anderer Stelle ausführlich berichte, stellt er sie vor:
Don Tapscott - How To Solve the World's Problems - SXSW Interactive 2013 from SXSW on Vimeo.
Don Tapscott - How To Solve the World's Problems - SXSW Interactive 2013 from SXSW on Vimeo.
Mittwoch, 12. Juni 2013
Ist Twitter in der Wissenschaftskommunikation sinnvoll? - Teil 1
Tagung läuft gut an - schon 10 Follower gewonnen. :D #wks13(und auch darüber hinaus...)
— Thorsten Faas (@wahlforschung) 11. Juni 2013
Auf den ersten Blick sieht das hier so aus, als ob es das übliche Gesammele von Kontakten, ob relevant oder nicht, ist und das ebenso übliche Gekrähe, wie beliebt man nun ist, zwecks der wachsenden Zahle der Follower. Also eine übliche Geschichte aus dem märchenhaften Bereich der "social media" - und dann auch noch in Twitter, das ja nur 140 Zeichen pro Eintrag erlaubt und damit nichts, was man sinnvoll kommunizieren könnte? - So könnte man meinen, so ist es aber nicht!Um noch hier beim Beispiel zu bleiben: Thorsten Faas ist Professor für Politikwissenschaft an der Universität Mainz (hier seine offizielle und hier seine private Homepage) und twittert zu seinem Fachgebiet, Wahlforschung - und ab und zu noch ein wenig Fussball. Man hat also Gelegenheit, einem Wissenschaftler bei seinen Entdeckungen, Wertungen, Hinweisen und Überlegungen folgen zu können. Das findet nicht so ausgiebig wie in einem Weblog statt, schließlich gehört Twitter - wie übrigens auch vergleichbare Dienste wie z.B. identi.ca - zum "Microblogging", d.h. es werden nur kleine Sequenzen gepostet, ggf. ergänzt durch Bilder oder Videos.
Ich konnte mir den Mehrwert, den das bringt, anfangs auch nicht recht klar machen, im Grunde muss man anfangen, Kontakte nach Interessen knüpfen. Das geht auf Twitter recht leicht, wenn man schonmal einige Kontakte hat, dann wird man entweder durch Retweets mit den Inhalten weiterer Nutzer/innen vertraut und kann sie abonnieren oder man folgt einem so genannten hashtag, einem Schlagwort. Das sind die Begriffe, die mit einer vorangestellten Raute "#" versehen sind. Oder ich suche in Twitter selbst oder mit Hilfe einer Spezialsuchmaschine wie Topsy nach mich interessierenden Inhalten. Wenn Sie beispielsweise "Wahlforschung" eingeben, kommen Sie wieder auf den oben aufgeführten Twitterer.
Twitter gibt also seine Inhalte recht leicht her, so dass man gut abschätzen kann, ob zu interessierenden Themen relevante Inhalte oder Kommunikationspartner existieren. Und diese kann man weiter beobachten, indem man sich mit ihnen verbandelt. Ob Prof. Faas weiß, dass ich seine Inhalte zur Kenntnis nehme, seit er im September 2012 zum DVPW-Kongress in Tübingen weilte? Es kommt nicht darauf an! Man kann also auf Abstand bleiben oder selbst beitragen oder Diskussionen anfangen, ganz nach Gusto.
Noch etwas gibt das obige Beispiel her: Mit Hilfe von Twitter lassen sich Tagungen gut "verfolgen", wenn genügend eifrige Twitterer an der Tagung teilnehmen. Sie sehen oben das Schlagwort #wks13. Das ist das Schlagwort zu einer Konferenz, das verlinkt ist. Wenn Sie daraufklicken, bekommen Sie Tweets, also Einträge auf Twitter, zu dieser Konferenz, nicht nur von Thorsten Faas, sondern auch von anderen, die an der Konferenz teilnehmen - oder nicht teilnehmen, aber Fragen dazu stellen oder Wertungen abgeben. Somit löst sich die Konferenz potentiell vom Tagungsort, indem Twitterer Inhalte und Verweise (beispielsweise auf abgelegte Präsentationen der Referentinnen und Referenten) posten und andere dies zur Kenntnis nehmen und ggf. darauf reagieren können.
Werden über Twitter nur magere Informationen verteilt? Dieses Beispiel zeigt: Je nach der Güte der Inhalte, die meine Kontakte generieren, wird mein Horizont ziemlich erweitert, sowohl im geographischen als auch im sachlichen Sinne. Twitter kann eine ernstzunehmende Quelle wissenschaftlicher Informationen sein, die noch dazu aktuell sind und Wertungen enthalten - etwas, das durchaus hilfreich sein kann, wenn man es einschätzen kann. Im zweiten Teil - in 7-10 Tagen - möchte ich gern noch systematischer auf die verschiedenen Inhalte, die über Twitter greifbar sind, eingehen.
Mittwoch, 22. Mai 2013
Google stellte die "Translated Search" ein
Nun ist die Welt doch wieder ein Stück auseinander gerückt: Konnte man seit einigen Jahren - Wolfgang Schumann hatte hier bereits am 05.12.2009 darüber geschrieben - als Option in der Google-Suche deutschsprachige Stichwörter eingeben, eine oder mehrere Sprachen auswählen, dann wurde im betreffenden Sprachbereich gesucht, die Ergebnisse in der Kurzdarstellung auf deutsch übersetzt und ggf. auch die Webseiten übersetzt. Zugegeben mit Hilfe von Google Translate, was mitunter zweifelhafte Ergebnisse brachte, man konnte mit dieser Option aber in fremdsprachigen Webinhalten recherchieren und auf deutsch zumindest beurteilen, ob sich weiterer Aufwand - beispielsweise für eine bessere Übersetzung - lohnen. Das ist nun vorbei. Karen Blakeman beklagt die Aufgabe dieses Dienstes ebenfalls und bringt eine kurze Textpassage von Google, in welcher auf Google Translate verwiesen wird und auch auf die Extension im Chrome-Browser, mit der man ganze Webseiten übersetzen kann. Geschenkt! Google Operating System schildert eingehender, dass diese Suchoption zuerst 2007 eine Option von Google Translate war und 2009 als Option in die allgemeine Suche integriert wurde. Und bringt wohl den wahren Grund: diese Option wurde nicht intensiv genutzt. Vielleicht interessiert man sich trotz Globalisierung doch nicht so intensiv füreinander. Jedenfalls: Wenn man ab jetzt etwas im arabischen, japanischen oder sonst einem exotischen Sprachraum sucht, hat man richtig Aufwand:
- Suchwörter übersetzen, ggf. zuerst geeignete Wörterbücher finden
- geeignete Suchmaschine (oder die jeweils lokale Google-Ausgabe) finden
- Ergebnisse übersetzen.
Blogparade: Hilfe, mein Prof blogt!
Das SOOC13-Team fragt im Rahmen einer Blogparade:
(1) Zuerst ein Web 2.0-typischer Grund: Der individuelle Nutzen verbindet sich (mühelos) mit einem (potenziellen) allgemeinen Nutzen - was heißt das im Fall des Bloggens? Bloggen heißt für mich auch und nicht zuletzt, meine Gedanken zu einer Sache, einem fertig gelesenen Buch, einer Diskussion zu ordnen und geordnet abzulegen, nämlich in Form eines Blog-Postings. Früher hätte ich mir vielleicht handschriftlich Notizen gemacht (und diese dann so abzulegen versucht, dass ein Wiederfinden nicht von vornherein ausgeschlossen werden musste). Dabei ist es ein schöner Nebeneffekt, dass möglicherweise andere von diesen Notizen profitieren, dass ich also - ähnlich wie beim Social Bookmarking - angesichts der Informationsflut Kurator-Dienste leiste.
Ein Beispiel: Vor einiger Zeit habe ich das damals neue Buch "Net Smart" von Howard Rheingold gelesen, das sich mit dem für mich unmittelbar einschlägigen Thema befasst, was digital literacy heute umfasst und v.a. wie digital literacy unterrichtet werden könnte. Nach der Lektüre habe ich einige interessante Gedanken aus dem Buch in Form eines Postings festgehalten. Das war für mich persönlich nützlich und hat vielleicht bewirkt, dass andere auf dieses empfehlenswerte Buch aufmerksam wurden - eine win-win-Situation also.
(2) Ein weiterer Grund, warum ich blogge bzw. - allgemeiner formuliert - warum ich Blogs in der Hochschullehre einsetze: Seit einigen Semestern halte ich an der PH Ludwigsburg eine Veranstaltung zum Themenbereich "Web (2.0), Medienkompetenz, (politische) Bildung" (mit wechselnden Titeln und Schwerpunkten). Hierzu habe ich einen Blog eingerichtet, der die Seminare semesterübergreifend begleitet.
Auch wenn der Erfahrungsschatz noch überschaubar ist, lässt sich doch eine Zwischenbilanz ziehen, die rundweg positiv ausfällt:
(3) Abschließend möchte ich noch auf diesen Blog und damit auf einen ganz praktischen Aspekt zu sprechen kommen. Hier werden Aktualisierung zu den Themen gepostet, die in meinen Seminaren zu Internetrecherche und webbasiertem Wissensmanagement behandelt werden. Die TeilnehmerInnen abonnieren den Blog im Lauf des Seminars und können auf diese Weise nach Seminarende auf dem Laufenden bleiben. Ein solcher Aktualisierungdienst ist in einem derart dynamischen Umfeld zwingend. Da ich an verschiedenen Hochschulen und in vielen anderen Kontexten lehre, erleichtert mir ein zentraler Blog die Arbeit erheblich.
Liebe Professoren, Dozenten, Universitätsmitarbeiter…: Warum blog(g)t Ihr eigentlich?Da diese Frage recht regelmäßig in meinen hochschuldidaktischen Seminaren für ProfessorInnen auftaucht, habe ich an anderer Stelle verschiedentlich bloggend darüber nachgedacht und versuche diese Gedanken hier zusammenzufassen.
(1) Zuerst ein Web 2.0-typischer Grund: Der individuelle Nutzen verbindet sich (mühelos) mit einem (potenziellen) allgemeinen Nutzen - was heißt das im Fall des Bloggens? Bloggen heißt für mich auch und nicht zuletzt, meine Gedanken zu einer Sache, einem fertig gelesenen Buch, einer Diskussion zu ordnen und geordnet abzulegen, nämlich in Form eines Blog-Postings. Früher hätte ich mir vielleicht handschriftlich Notizen gemacht (und diese dann so abzulegen versucht, dass ein Wiederfinden nicht von vornherein ausgeschlossen werden musste). Dabei ist es ein schöner Nebeneffekt, dass möglicherweise andere von diesen Notizen profitieren, dass ich also - ähnlich wie beim Social Bookmarking - angesichts der Informationsflut Kurator-Dienste leiste.
Ein Beispiel: Vor einiger Zeit habe ich das damals neue Buch "Net Smart" von Howard Rheingold gelesen, das sich mit dem für mich unmittelbar einschlägigen Thema befasst, was digital literacy heute umfasst und v.a. wie digital literacy unterrichtet werden könnte. Nach der Lektüre habe ich einige interessante Gedanken aus dem Buch in Form eines Postings festgehalten. Das war für mich persönlich nützlich und hat vielleicht bewirkt, dass andere auf dieses empfehlenswerte Buch aufmerksam wurden - eine win-win-Situation also.
(2) Ein weiterer Grund, warum ich blogge bzw. - allgemeiner formuliert - warum ich Blogs in der Hochschullehre einsetze: Seit einigen Semestern halte ich an der PH Ludwigsburg eine Veranstaltung zum Themenbereich "Web (2.0), Medienkompetenz, (politische) Bildung" (mit wechselnden Titeln und Schwerpunkten). Hierzu habe ich einen Blog eingerichtet, der die Seminare semesterübergreifend begleitet.
Auch wenn der Erfahrungsschatz noch überschaubar ist, lässt sich doch eine Zwischenbilanz ziehen, die rundweg positiv ausfällt:
- Es entsteht nach und nach eine ordentliche Ressource zu dem Themengebiet, auf die in jedem neuen Semester aufgebaut werden kann.
- Rund 10% der Studierenden posten regelmäßig, wenn sie auf relevante Inhalte stoßen, weitere rund 20% posten gelegentlich, der Rest selten oder gar nicht. Die Postings beleben die Lehrveranstaltung.
- In bescheidenem Maße, aber immerhin, wird der Wochenrhythmus zugunsten einer kontinuierlichen Beschäftigung mit der Thematik aufgehoben.
- Auch als Seminarleiter stößt man durch die Postings der Studierenden immer wieder auf Neues und Interessantes.
- Seminararbeiten (Beispiele) werden nicht mehr wie bisher, sondern als ausführliche Blog-Postings verfasst. Die Qualität der Arbeiten hat sich dadurch verbessert (vermutlich, weil die Motivation größer ist, wenn man für ein Publikum schreibt).
- Seminararbeiten nützen anderen, statt in der Schublade des Seminarleiters zu verschwinden.
- Es besteht die Möglichkeit, im Blog auch größere Projektergebnisse zu veröffentlichen (Beispiel: Wikipedia verstehen).
(3) Abschließend möchte ich noch auf diesen Blog und damit auf einen ganz praktischen Aspekt zu sprechen kommen. Hier werden Aktualisierung zu den Themen gepostet, die in meinen Seminaren zu Internetrecherche und webbasiertem Wissensmanagement behandelt werden. Die TeilnehmerInnen abonnieren den Blog im Lauf des Seminars und können auf diese Weise nach Seminarende auf dem Laufenden bleiben. Ein solcher Aktualisierungdienst ist in einem derart dynamischen Umfeld zwingend. Da ich an verschiedenen Hochschulen und in vielen anderen Kontexten lehre, erleichtert mir ein zentraler Blog die Arbeit erheblich.
Dienstag, 21. Mai 2013
Wissenschaft 2.0 kommt so langsam im Mainstream an!
Die FAZ kommet leider ein paar Jahre zu spät RT @wissimdialog: Die @faz_net zum Thema Wissenschaft und Web 2.0: blogs.faz.net/planckton/2013… #faz
— Martin Fenner (@mfenner) 21. Mai 2013
Genau, dieses Blog und die Betreiber beackern ja auch schon seit Jahren dieses Thema!
Freitag, 17. Mai 2013
Peeragogy - Peer Learning Handbook
Internetlegende Howard Rheingold erklärt selbst, für wen und was das Peer Learning Handbook gedacht ist:
Zu finden ist das außerordentlich nützliche Handbuch hier. Es handelt sich übrigens um ein offenes (und offen lizensiertes) Projekt:
Wer lieber gedruckte Bücher liest, dem sei Howard Rheingolds Buch "Net Smart" empfohlen, das nach wie vor zu den besten Veröffentlichungen zu digital literacy zählt:
Zu finden ist das außerordentlich nützliche Handbuch hier. Es handelt sich übrigens um ein offenes (und offen lizensiertes) Projekt:
This document is a practical guide to online co-learning, a living document that invites comment and invites readers to join the community of editors; the document does not have to be read in linear order from beginning to end. If you and a group of other people want to use digital media and networks to co-learn together, this handbook is a practical tool for learning how to self-organize peer learning — what we call “peeragogy.”Unterteilt ist es (bislang) in neun Abschnitte: Introduction, Motivation, Practice, Convene, Organize, Cooperate, Assess, Tools und Resources.
Wer lieber gedruckte Bücher liest, dem sei Howard Rheingolds Buch "Net Smart" empfohlen, das nach wie vor zu den besten Veröffentlichungen zu digital literacy zählt:
Montag, 13. Mai 2013
Neuer TED Talk von Ken Robinson
Wenn man mit Bildung zu tun hat, lohnt es sich immer, Sir Ken Robinson zuzuhören:
Freitag, 10. Mai 2013
Citavi und Informationen zu Literaturverwaltungsprogrammen
Die Literaturverwaltungssoftware Citavi hat unlängst die Version 4 herausgebracht. Neben vielem anderen ist es die "Zusammenarbeit" mit der Textverarbeitung, die (einschränkend: Bezüglich Windows und bezüglich der Textverarbeitung MS Word)nun ein neues Add-In zum Einfügen von Verweisen und Zitaten bietet:
"Word-Add-In zum Einfügen von Verweisen und Zitaten. Das neue Add-In für Microsoft Word macht es leicht, Verweise und Zitate in Ihr Manuskript einzufügen – exakt so, wie es der Zitationsstil vorschreibt. Das Literaturverzeichnis aktualisiert sich automatisch mit jedem hinzugefügten oder entfernten Quellennachweis. Dokumente, die mit dem Publikationsassistenten aus Citavi 3 erstellt wurden, lassen sich konvertieren und mit dem neuen Word-Add-In weiterbearbeiten. Unterstützt werden Microsoft Word 2003, 2007, 2010, 2013 und 365 (auch die 64bit-Versionen). Für OpenOffice Writer und die folgenden LaTeX-Editoren steht weiterhin Citavis Publikationsassistent zur Verfügung: LEd, LyX, TexMaker, TeXnicCenter, TeXWorks, WinEdt, WinShell, WinTeX."Wenn Sie sich jetzt fragen, was es denn für verschiedene Literaturverwaltungs-Programme gibt und wie sie vergleichend einzuschätzen sind, dann kann ich Ihnen hier noch das Weblog zur "Literaturverwaltung" empfehlen, das neben vielen anderen Informationen auch eine Seite "Softwarevergleiche" anbietet.
Sonntag, 21. April 2013
Vorlesungsreihe an der Uni Stuttgart zur "Soziologie des Internet"
Im Sommersemester 2013 führt die Organisations- und Innovationssoziologie an der Universität Stuttgart eine öffentliche Vorlesungsreihe zur "Soziologie des Internet" durch.
Termine und Themen:
Mi., 24. April 2013: 9.45–11.15 Uhr
Max Ruppert (TU Dortmund), Julius Reimer (HBI Hamburg):
Social Web und professioneller Journalismus: Das Beispiel "GuttenPlag".
Mi., 5. Juni 2013: 14.00–15.30 Uhr
Prof. Dr. Tilmann Sutter (Universität Bielefeld):
Herausforderungen der Internetforschung.
Mi., 26. Juni 2013: 9.45–11.15 Uhr
Dr. Sascha Dickel (IÖW Berlin):
"We are all designers now"? Zum Wandel von Produktions- und Konsumrollen durch das Internet.
Mi., 17. Juli 2013: 9.45–11.15 Uhr
Prof. Dr. Leonhard Dobusch (FU Berlin):
"Anonymous" und "Wikipedia": Grenzenlose Organisationen?
Termine und Themen:
Mi., 24. April 2013: 9.45–11.15 Uhr
Max Ruppert (TU Dortmund), Julius Reimer (HBI Hamburg):
Social Web und professioneller Journalismus: Das Beispiel "GuttenPlag".
Mi., 5. Juni 2013: 14.00–15.30 Uhr
Prof. Dr. Tilmann Sutter (Universität Bielefeld):
Herausforderungen der Internetforschung.
Mi., 26. Juni 2013: 9.45–11.15 Uhr
Dr. Sascha Dickel (IÖW Berlin):
"We are all designers now"? Zum Wandel von Produktions- und Konsumrollen durch das Internet.
Mi., 17. Juli 2013: 9.45–11.15 Uhr
Prof. Dr. Leonhard Dobusch (FU Berlin):
"Anonymous" und "Wikipedia": Grenzenlose Organisationen?
Samstag, 6. April 2013
Vortrag von Gerald Hüther über das Lernen
Von Zeit zu Zeit tut es gut, sich auf Grundlagen zu besinnen. Und wenn es mit Hilfe eines mitreißenden Vortrags geschieht - umso besser. Der bekannte Hirnforscher Gerald Hüther erinnert in diesem knapp 20-minütigen Vortrag an die enorme Bedeutung, die der Begeisterung zukommt, wenn es um Lernen geht. Außerdem entwickelt er ein eingängiges heuristisches Modell zum Verständnis der menschlichen Entwicklung, die mit zwei Prozessen auskommt, die im Mutterleib glücklich vereint sind, anschließend aber in einem beständigen Spannungsverhältnis zueinander stehen: das (autonome) Wachsen und das Verbundensein.
Dienstag, 26. März 2013
Visualisierung at its best
Denkt man an Videos, die sich viral verbreiten, sieht man vor seinem geistigen Auge Katzenbabys herumtollen. Aber es geht auch anders: Das folgende Video visualisiert eine wissenschaftliche Studie über die Einkommens- und Wohlstandsverteilung in den USA aus dem Jahr 2011:
Montag, 25. März 2013
Und noch eine Lektüreempfehlung: John Naughton
In praktisch allen guten Büchern rund um das Web findet John Naughtons 2011 erschienenes Buch "From Gutenberg to Zuckerberg. What You Really Need to Know About the Internet" lobende Erwähnung. Nun habe ich endlich Zeit gefunden für die Lektüre. Und in der Tat handelt es sich um ein hervorragendes Buch, das vor allem um folgende fünf "big ideas" kreist:
1. Um das Internet verstehen zu können, muss man eine historische Perspektive einnehmen und in langen Zeiträumen denken (beginnend mit Gutenberg).
2. Es gibt einen fundamentalen Unterschied zwischen Web und Net, der in seiner Bedeutung für das Verständnis beider Phänomene entscheidend ist.
3. Disruption gehört wesentlich zum Internet, ist gleichsam der Sinn von dessen Architektur. Das Internet versteht man am besten als Maschine zur Ermöglichung von Überraschungen. Eine solche Überraschung mit herausragender Bedeutung war das World Wide Web, eine andere beispielsweise Napster und das file-sharing.
4. Das Internet kann im vorherrschenden ökonomischen Bezugsrahmen nicht angemessen verstanden werden, da es im Internet nicht - wie in der Ökonomie - um knappe Güter geht. Vielmehr ist das Internet von Überfluss und Verschiedenartigkeit gekennzeichnet. Den besseren Bezugsrahmen bietet deshalb die Ökologie. Sinnvoll wäre also, vom Ökosystem Internet zu sprechen.
5. Das Internet bringt eine neue Qualität an Komplexität mit sich, mit der wir erst umzugehen lernen müssen. Das führt unter anderem dazu, dass wir unsere Institutionen neu erfinden müssen.
Schön zusammengefasst findet man die Grundthemen des Buches auch in dem folgenden rund 18-minütigen Interview mit dem Autor:
1. Um das Internet verstehen zu können, muss man eine historische Perspektive einnehmen und in langen Zeiträumen denken (beginnend mit Gutenberg).
2. Es gibt einen fundamentalen Unterschied zwischen Web und Net, der in seiner Bedeutung für das Verständnis beider Phänomene entscheidend ist.
3. Disruption gehört wesentlich zum Internet, ist gleichsam der Sinn von dessen Architektur. Das Internet versteht man am besten als Maschine zur Ermöglichung von Überraschungen. Eine solche Überraschung mit herausragender Bedeutung war das World Wide Web, eine andere beispielsweise Napster und das file-sharing.
4. Das Internet kann im vorherrschenden ökonomischen Bezugsrahmen nicht angemessen verstanden werden, da es im Internet nicht - wie in der Ökonomie - um knappe Güter geht. Vielmehr ist das Internet von Überfluss und Verschiedenartigkeit gekennzeichnet. Den besseren Bezugsrahmen bietet deshalb die Ökologie. Sinnvoll wäre also, vom Ökosystem Internet zu sprechen.
5. Das Internet bringt eine neue Qualität an Komplexität mit sich, mit der wir erst umzugehen lernen müssen. Das führt unter anderem dazu, dass wir unsere Institutionen neu erfinden müssen.
Schön zusammengefasst findet man die Grundthemen des Buches auch in dem folgenden rund 18-minütigen Interview mit dem Autor:
Samstag, 23. März 2013
Lektüreempfehlung: Internet - Segen oder Fluch (Passig/Lobo)
Dieses Buch hätten wahrscheinlich alle gerne geschrieben, die wie die Autoren - Kathrin Passig und Sascha Lobo - und wie der Autor dieser Zeilen einen Gutteil ihrer Arbeitszeit mit dem Versuch verbringen, anderen die praktischen Vorzüge von Digitalisierung und Internet näherzubringen, oder in Vorträgen und Seminaren über die Folgen des Web (2.0) räsonieren. Da es nun schon geschrieben ist, bleibt lediglich, den Hut zu ziehen und eine dringende Lektüreempfehlung auszusprechen:
Ziel des (auch sonst nicht durch übermäßige Bescheidenheit angekränkelten) Buches ist es, die Welt zu verbessern, und zwar im Ganzen. Nachdem in den ersten vier Kapiteln die wesentlichen Erkenntnisse aus mehreren Jahrhunderten Sprach-, Sozial- und Geisteswissenschaft zusammengefasst wurden, widmen sich die folgenden Kapitel den wichtigsten Fragen rund um Internet, digitaler Gesellschaft und Netzpolitik (Disruption, Beschleunigung, Informationsüberflutung, Kollaboration, Regulierung, Datenschutz, Urheberrecht etc.). Durchgängiges Motiv ist es, die Debatten zwischen Optimisten und Skeptikern zu verbessern:
Ziel des (auch sonst nicht durch übermäßige Bescheidenheit angekränkelten) Buches ist es, die Welt zu verbessern, und zwar im Ganzen. Nachdem in den ersten vier Kapiteln die wesentlichen Erkenntnisse aus mehreren Jahrhunderten Sprach-, Sozial- und Geisteswissenschaft zusammengefasst wurden, widmen sich die folgenden Kapitel den wichtigsten Fragen rund um Internet, digitaler Gesellschaft und Netzpolitik (Disruption, Beschleunigung, Informationsüberflutung, Kollaboration, Regulierung, Datenschutz, Urheberrecht etc.). Durchgängiges Motiv ist es, die Debatten zwischen Optimisten und Skeptikern zu verbessern:
"Dieses Buch soll beiden vermitteln, dass die andere Seite Gründe für ihre Haltung hat und nicht aus unbegreiflich vernagelten Personen besteht. Oder jedenfalls nicht nur" (S. 9).Und genau das tut not. Und wenn es gelingt, sich dieser Aufgabe auf unterhaltsame und geistreiche Art zu entledigen, umso besser...
Montag, 4. März 2013
Open Data und Open Source
Auf Angebote der Bundeszentrale für politische Bildung (www.bpb.de) verweisen wir in aller Regel in unseren anderen Blogs (etwa dem Blog zum Thema "Politische Bildung und Web 2.0"). Allerdings widmet sich die BpB zunehmend auch Themen, die im hiesigen Kontext von Interesse sind. Das gilt zum einen für den empfehlenswerten Blog #pb21, es gilt aber auch für zwei Online-Dossiers, die ich Ihnen digital ans Herz legen möchte:
Online-Dossier zu Open Data - Inhalt:
Online-Dossier zu Open Source - Inhalt:
Online-Dossier zu Open Data - Inhalt:
- Startseite
- Einführung
- Was sind offene Daten?
- Nutzen offener Daten
- Offene Daten in Deutschland
- Globale Entwicklung
- Open Data und Transparenz
- Datenjournalismus
- Lokale Datenprojekte
- Fallbeispiele
- Gerüst für Open-Data-Portal steht
Online-Dossier zu Open Source - Inhalt:
Samstag, 23. Februar 2013
Alles rund um die Diss - auch andere leiden
Ein Problem bei meiner Diss. ist das Schreiben. Das mag daran liegen, dass ich sehr spät erkannt habe, dass akademisches Schreiben wenig mit dem zu tun hat, was man in der Schule lernt. Auch im Grundstudium wurde das nie thematisiert (als ich in GB zum Master weilte, wurde das einfach vorausgesetzt; da lernt man so etwas häufig im Grundstudium in Kursen). Da ging es eher drum, wie man richtig zitiert. Das wundert mich nun nicht mehr - ich behaupte, die meisten Dozenten wissen nicht, wie sie Schreibkompetenz vermitteln können. Ein paar sehr gut Einstiege:
- Dieser Blog Thesis Whisperer
- Diese Bücher:
Schreibdenken
Helping Doctoral Students Write (habe ich mir aus UK günstig schicken lassen) - Geholfen haben mir auch die Bücher meines Kollegen Otto Kruse.
Sonntag, 3. Februar 2013
Cyberscience 2.0
"Wie Twitter, Facebook und Wikis die Wissenschaft verändern – dieser Fragestellung ging zum Ausklang des aktuellen Programms ein Podium mit Technikforscher und Cyberscience-Pionier Michael Nentwich (Wien) und dem Sozialwissenschaftler und Cybrarian Lambert Heller (Hannover) nach."Ein schönes Gespräch über die Änderungen in der Wissenschaft und der Rezeption von Informationen. [via Literarischer Salon der Leibniz Universität Hannover]
Samstag, 26. Januar 2013
Akademisches Schreiben auf Englisch
Infobib weist auf eine schöne Sammlung namens Academic Phrasebank hin,
"a general resource for academic writers. It aims to provide you with examples of some of the phraseological "nuts and bolts" of writing organised under the headings to the left. It was designed primarily with international students whose first language is not English in mind. However, if you are a native speaker writer, you may still find parts of the material helpful.In einer groben Systematik geordnet findet man typische Einleitungssätze und Redewendungen, die man in einer wissenschaftlichen Arbeit verwenden kann.
Sonntag, 6. Januar 2013
Kostenlos und flache Lernkurve - Literaturverwaltung für kleine Arbeiten.
Zugegeben, DAS Literaturverwaltungsprogramm habe ich immer noch nicht gefunden. Seit vielen Jahren nutze ich Bibliographix. Für die Flut von PDFs (zumeist Fachartikel) leistet Mendeley gute Dienste (da fasziniert v. a. die Gruppenfunktion, d.h. man kann in Teams gemeinsam PDFs sammeln und so einen gemeinsamen Wissensstand erarbeiten). Viel Spass habe ich seit kurzem aber auch mit Zotero Standalone. Mit dem Chrome Plug-in sammelt man ratzfatz Quellen aller Art direkt aus dem Webbrowser. Auch hier kann man schön im Team arbeiten.
Immer wieder aber komme ich auf Bibliographix zurück. Es ist der Ideenmanager, der mich begeistert. Hier hatte ich schon darüber geschrieben. Dabei - und somit nach langer Vorscheibe mal zum Thema - bin ich darauf aufmerksam geworden, dass es Bibliographix nun in einer "B.A." Variante gibt. Auch kostenlos, aber auf das Minimum an Funktion abgespeckt. Die Funktionalität kann man hier vergleichen. Scheint mir eine gute Idee. Das Handbuch hat nur fünf Seiten...
Immer wieder aber komme ich auf Bibliographix zurück. Es ist der Ideenmanager, der mich begeistert. Hier hatte ich schon darüber geschrieben. Dabei - und somit nach langer Vorscheibe mal zum Thema - bin ich darauf aufmerksam geworden, dass es Bibliographix nun in einer "B.A." Variante gibt. Auch kostenlos, aber auf das Minimum an Funktion abgespeckt. Die Funktionalität kann man hier vergleichen. Scheint mir eine gute Idee. Das Handbuch hat nur fünf Seiten...
Abonnieren
Posts (Atom)