Freitag, 4. Dezember 2015

PolyFetch - eine interessante Suchmaschine

Phil Bradley hatte sie - damals noch im beta-Status - im Jahr 2012 vorgestellt und gemeint, dass sich ein Blick durchaus lohne.
Nun, auch der zweite Blick auf PolyFetch gefällt: Das Ranking bei den verschiedenen Suchen ist sehr gut und auch die verschiedenen Optionen mit News, Images und Research geben gute Ergebnisse. Bemerkenswert ist, dass alle vier Optionen eine Google Custom Search Engine als Grundlage haben - wobei unklar ist, welche Webseiten als Grundlage für die Suchergebnisse dienen.

Montag, 9. November 2015

Arbeiten mit Evernote - Anregungen

Evernote zählt regelmäßig zu den Favoriten der Teilnehmer an unseren Seminaren zur professionellen Internetrecherche, zu der eben auch ein systematisches webbasiertes Wissensmanagement zählt. Und in diesem Bereich ist Evernote konkurrenzlos. Wer sich praxisnahe Anregungen zum Arbeiten mit dem Dienst holen möchte, kann das Evernote-Blog abonnieren. Auch die Seite "Evernote für Pfiffige" bietet regelmäßig hilfreiche Tipps.

Über diese Seite bin ich auch auf den Podcast "Donau Tech Radio" gestoßen, dessen aktuelle Episode (Nr. 69) sich mit Evernote befasst. Der ganze Podcast dauert rund 1,5 Stunden, besonders interessant sind aber die 20 Minuten zwischen 36:00 min und 56:00 min. Wer sich auch für Arbeitsorganisation und to-do-Listen interessiert, kann bei 11:00 min einsteigen. Ab 36:00 min geht es dann um Dokumenten- und Informationsmanagement.

Freitag, 25. September 2015

Die besten Lern-Tools

Jane Harts Liste "Top 100 Tools for Learning" für das Jahr 2015 wurde veröffentlicht. Seit 7 Jahren führt Twitter die Liste an.


Sonntag, 26. Juli 2015

Professionelle Recherche in 3 Minuten

Die Hochschule Bonn-Rhein-Sieg hat zusammen mit explainity ein instruktives Video (3:33 min) mit dem Titel "Recherchefahrplan für wissenschaftliches Arbeiten" erstellt:

Mittwoch, 15. Juli 2015

Rückmeldung zum Buch "Recherche 2.0"

Gestern hat uns eine schöne Rückmeldung zu unserem Buch zur professionellen Internetrecherche erreicht (Buchvorstellung hier im Blog):

Sehr geehrter Herr Dr. Müller,
sehr beglückwünschen und zugleich bedanken möchte ich mich bei Ihnen und Ihren Mitautoren zu dem Buch „Recherche 2.0“. So ein Buch habe ich lange gesucht, ich meine, es ist einzigartig auf dem deutschen Markt. Warum?
  • Es ist nicht 500 Seiten und mehr dick, sondern sehr überschaubar. 
  • Sie beschreiben in sehr einfacher Sprache auch komplizierte Dinge. 
  • Sie schreiben über das, was wirklich notwendig ist, und beschränken
    sich kenntnisreich auf das Wesentliche.
Jedes Erstsemester, oder spätestens nach dem „Vordiplom“ (oder einer heutigen Entsprechung), sollte dies Buch in die Hand bekommen. Es ist der perfekte Leitfaden für wissenschaftlich fundierte Recherche.

Update (04.08.15): Diese Rückmeldung stammt von dem Bildungsreferenten Michael Ros, der uns heute eine weitere E-Mail geschrieben und uns erlaubt hat, ihn namentlich zu nennen.

Freitag, 3. Juli 2015

Inoreader - ein durchdachter Feedreader

RSS-Feeds sind wieder im Kommen. Schlussendlich hat man damit die Möglichkeit, mehr Quellen als in sozialen Netzwerken abzufragen und auch selbst zu bestimmen, was man wie und wieviel davon zu sehen bekommt. RSS-Reader können dabei entscheidend helfen, je nachdem, wieviele Produktivitäts-Aspekte sie unterstützen und wie sie erlauben, die Inhalte anzusehen. Auch die Möglichkeit, den Reader über unterschiedliche Geräte hinweg nutzen zu können, spielt eine Rolle.

Als der Google Reader vor zwei Jahren nicht mehr angeboten wurde, schien es so, als ob die Welt unterging, wurde damit doch das produktivste Tool vom Markt genommen. Bald jedoch zeigte sich, dass eine ganze Reihe von Alternativen angeboten oder programmiert wurden, die durchaus Schritt halten konnten. Netvibes gab es schon länger, trat aber damals mehr in den Vordergrund und bot etwa in dieser Zeit neben der Präsentation der Feeds in Registern und Widgets die Möglichkeit, umzuswitchen auf eine klassische "Reader"-Sicht mit der Ordnung nach Tags. Feedly punktete insbesondere durch seine gute Darstellung insbesondere von Bilderquellen und durch die Möglichkeit der Nutzung auf verschiedenen Devices. Und Inoreader wurde damals von einem Google Reader-Fan gegründet, der zunächst die Grundfunktionen nachprogrammierte, jetzt aber - mittlerweile in einem Team - nach und nach andere Funktionen hinzunimmt.

Ich nutze Inoreader immer noch in der kostenlosen Variante (mit Werbeeinschaltungen). Neben der guten Handhabbarkeit schätze ich vor allem die Suchfunktion, mit deren Hilfe ich die Feeds durchsuchen kann. So kann man schnell Feeds wieder "heben", von denen man vergessen hatte, wo sie enthalten waren, ebenso aber kann man mit Hilfe von Stichworten nach Aspekten suchen, die einem erst später aufgefallen sind.

Die verschiedenen Produktivitätsinnovationen, die regelmäßig hinzukommen, will ich nicht im einzelnen beschreiben, denn wahrscheinlich hat jede/r hier andere Präferenzen. Im Inoreader-Weblog gibt es eine Übersicht, welche die verschiedenen Zusatzfunktionen aufzeigt. Hier ein paar Beispiele:

  • Automatisches Highlighten von bestimmten Wörtern im Titel und im Text von Feeds
  • Ablegen von Seiten in Inoreader
  • Ablegen von Inhalten per E-Mail
  • Integration mit IFTTT
  • Lesen von Facebook-Seiten im Inoreader
  • etc.
Wenn man Inhalte nicht verteilt ablegen, sondern möglichst an einer Stelle zusammenführen möchte, dann bietet der Inoreader hierfür differenzierte Funktionalitäten, um das gut umzusetzen. Ach ja, es gibt auch die Möglichkeit, aus ausgewählten Feeds eine öffentliche Webseite zu erstellen und diese zu verwalten, beispielsweise wenn man sich umentscheidet und etwas dann doch wieder (z.B. wegen Bildrechten) draussen haben möchte. Und die "soziale" Funktion ist auch mit an Bord, man kann sich über Inoreader vernetzen. Zwar ist das nicht ganz so gut wie damals in Bloglines, dem früheren Feedreader, der völlig offen war, aber immerhin.

Alles in allem ein gut durchdachtes Tool, an dem kontinuierlich weiterentwickelt wird, und - was auch wichtig ist - bei dem wichtige Funktionen auch im kostenlosen Bereich zur Verfügung stehen wie z.B. die Suche, die beispielsweise bei Feedly nur im kostenpflichtigen Bereich zu nutzen ist.

Donnerstag, 4. Juni 2015

Lehren und Lernen mit Big Data

Kurz und prägnant (88 S.), verständlich und mit eingängigen Beispielen stellen Viktor Mayer-Schönberger und Kenneth Cukier in ihrem 2014 erschienenen Buch "Lernen mit Big Data: Die Zukunft der Bildung" (Verlagswebsite) dar, welche Chancen Big Data in allen Bildungsbereichen bietet:
"Zum ersten Mal in der Geschichte verfügen wir über ein starkes empirisches Werkzeug, mit dem wir verstehen können, wie man lehrt und wie man lernt."

"Das Wesen der Bildung ändert sich, weil die Gesellschaft mit Big Data endlich lernen kann, wie man lernt."

"Dieses Buch handelt davon, wie Big Data Bildung und Lernen verändert. Durch Big Data erkennen wir so klar wie nie zuvor, was funktioniert und was nicht. Wir können die Leistungen von Schülern und Studenten verbessern, da nun Aspekte des Lernens sichtbar werden, die zuvor einfach nicht beobachtet werden konnten."
Es sind im wesentlichen drei Eigenschaften von Big Data, die Lehren und Lernen verbessern: Feedback, Individualisierung und auf Wahrscheinlichkeiten basierende Vorhersagen. Diesen drei Aspekten sind jeweils eigene Kapitel gewidmet. Entscheidend ist (nicht nur, aber auch im Bereich des Lehrens und Lernens), dass Big Data neue Erkenntnisdimensionen eröffnet:
"Mit Big Data steht uns so viel Information zur Verfügung, dass wir »die Daten sprechen lassen« können: Wir können Einsichten gewinnen, die uns zuvor verschlossen waren (...). Aufgrund dessen werden wir verstehen, was beim Lernen funktioniert und was nicht – nicht nur ganz allgemein, sondern je nach Kontext, Klasse und sogar Individuum."

"Big Data bedeutet mehr als eine Veränderung unserer Lernweise: Es verändert die Art, wie wir über die Welt denken. Wegen und durch Big Data werden wir lernen, unser altes Denken in oftmals nur vermeintlichen Ursachen zu überdenken."
Allerdings müssen wir uns daran gewöhnen, dass dadurch "verstehen" nicht mehr das ist, was es einmal war. Das ist ein Grund dafür, dass es Akzeptanzprobleme bei Big Data-Analysen gibt:
"Wir müssen uns von der Überzeugung verabschieden, wir könnten einfach Kausalzusammenhänge aufdecken. Big Data zeigt uns meist nur Korrelationen auf. Diese Korrelationen – mutmaßliche Verbindungen und Zusammenhänge zwischen Variablen, die wir zuvor womöglich nicht wahrgenommen haben – verraten uns nicht, warum etwas geschieht, sondern nur, was geschieht. Aber das reicht mitunter aus, um Entscheidungen zu treffen."
Um diese Aspekte geht es auch in einem aktuellen Aufsatz von Viktor Mayer-Schönberger mit dem Titel: "Was ist Big Data? Zur Beschleunigung des menschlichen Erkenntnisprozesses".

Die erheblichen Risiken, die sich mit dem massenhaften Sammeln und Auswerten von Daten im Bildungssystem verbinden und die nicht nur Privatsphäre und Datenschutz betreffen, werden ebenfalls thematisiert. Die Autoren bilanzieren:
"Wie viele Big-Data-Analysen wir im Bildungssystem zulassen wollen und wie wir uns am besten gegen die absehbaren Schreckensvisionen schützen, bleibt letzten Endes eine schwierige Abwägung zwischen unserem Verlangen nach einer Optimierung des Lernens und unserer Ablehnung einer Festschreibung unser individuellen Zukunft durch die Daten unserer Vergangenheit."
      

Samstag, 2. Mai 2015

Die Suchmaschine Exalead

Exalead ist eine Marke, die schon sehr lange besteht. Sie war schon in den neunziger Jahren des vorigen Jahrhunderts eine bekannte Suchmaschine. Mittlerweile gehört sie zum Dassault-Konzern, basiert auf einem eigenen Index (Datenbestand) und bietet interessante Suchoptionen, welche andere Suchmaschinen nicht im Angebot haben.
Das sieht man, wenn man "advanced search" anklickt und kein neues Auswahlmenü angezeigt wird, sondern es öffnet sich ein Aufklappmenü, wie Sie es hier rechts sehen und es werden Suchoptionen vorgeschlagen und angezeigt, wie man sie zeilenorientiert umsetzen kann. Beachtenswert beispielsweise, dass es mit NEXT einen "near"-Operator gibt, mit dessen Hilfe man die Nähe zweier Begriffe in der Ergebnismenge erzwingen kann (das geht sonst nur bei Google mit * und bei Bing mit NEAR). Man kann in Exalead sogar Verknüpfungen mit Klammerungen anwenden (beispielsweise (SPD OR Sozialdemokraten) AND (arbeitsmarkt OR arbeitsmarktpolitik), was eine viel exaktere Abfrage erlaubt als die Eingabe bei anderen Suchmaschinen.
Bei der Anzeige der Ergebnisse wird - wie hier links zu sehen - eine Leiste mit Begriffen in verschiedenen Kategorien angezeigt, mit deren Hilfe man weiter einschränken kann. Auch das ist eine Funktionalität, wie man sie sonst nur von Metasuchmaschinen her kennt. Alles in allem bietet Exalead genug Funktionen, dass es sich lohnt, sie einmal in Augenschein zu nehmen!

Donnerstag, 2. April 2015

serioussearch.de als Hilfsmittel bei der wissenschaftlichen Internetrecherche

Screenshot der "advanced search" Eingabemaske von serioussearch.de
"Normale" Suchmaschinen wenden sich an "normale" Nutzer und versuchen, deren Bedürfnisse zu befriedigen. Hier knüpft Prof. Dr. Olaf Resch von der HWR Berlin an. Sein "Recherchewerkzeug" serioussearch.de richtet sich primär an Wissenschaftler, also an Nutzer, die komplexe Recherchen durchführen müssen, die aber auch mehr Kompetenz und Motivation mitbringen als der durchschnittliche Nutzer, an dem sich die gängigen Suchmaschinen ausrichten (müssen).

Die Grundidee von serioussearch.de besteht kurz gesagt darin, komplexe Recherchen zu unterstützen. In einem Beitrag zum Tagungsband der 27. AKWI-Jahrestagung 2014 [pdf] (S. 188 ff.) stellt Resch die Problemstellung folgendermaßen dar:
"Gängige Suchmaschinen unterstützen insbesondere eine effiziente Suche. Die übliche Präsentation der Suchergebnisse in Form eines fixen Rankings ist nicht darauf ausgelegt, eine größere Anzahl von Suchergebnissen zu reflektieren, Ziel ist es vielmehr, dass die gesuchte Information in einem der ersten Ergebnisse zu finden ist. Das zugrundeliegende Paradigma ist der sogenannte zufällige Surfer, eine Art statistischer Durchschnitt, dem die algorithmische Intelligenz eine möglichst schnelle und bequeme Suche ermöglicht. Allerdings ist es fraglich, ob die Suchmaschine, insbesondere bei anspruchsvollen, wissenschaftlichen Recherchen effektiv ist, ob nicht die Suchmaschinenoptimierung einzelner Webseitenbetreiber zu einer zu starken Verzerrung führt und ob nicht die Nutzer zu untypisch für das Paradigma des zufälligen Surfers sind." (S. 189)
Die Eingabemaske (siehe oberer Screenshot) verrät noch nichts über die Möglichkeiten des Recherchewerkzeugs. Ein paar wenige Auswahlmöglichkeiten helfen ebenso bei der Formulierung der Suchanfrage wie eine Autocomplete-Funktion. Richtig interessant wird es aber auf der Ergebnisseite:

Screenshot der Suchergebnissseite von serioussearch.de
Hier bieten sich eine ganze Reihe von interessanten Möglichkeiten zur Trefferdarstellung und Weiterarbeit:
  • a..z: Anzeige der Suchergebnisse in alphabetischer Reihenfolge, also ohne Ranking
  • host: Anzeige nach Informationsquelle
  • detail / undetail: Trefferanzeige mit oder ohne Snippet, dadurch bessere Übersicht über eine größere Anzahl von Suchergebnissen
  • marked / all: man kann sich nur die zuvor ausgewählten Ergebnisse anzeigen lassen
  • alert: Möglichkeit der E-Mail-Benachrichtigung
Screenshot der Keywords-Wolke von serioussearch.de
Besonders erwähnenswert sind fünf weitere Funktionen, die das Recherchewerkzeug bietet:
  • keywords: Man kann sich eine Keyword-Wolke anzeigen lassen, die aus den Suchergebnissen generiert wurde (siehe Screenshot oben), und mit dieser weiterarbeiten.
  • stewViz: Ein Klick auf diesen Menüpunkt führt zu einer interessanten Visualisierung der Suchergebnisse.
  • dropdown-Feld links: Hier finden sich (wissenschaftliche) Kategorien zur Verfeinerung und/oder Weiterführung der Recherche.
  • ähnliche Ergebnisse: Ein Klick auf das Quadrat mit dem Punkt nach einem Suchergebnis stellt das entsprechende Ergebnis ins Zentrum und ordnet die anderen Ergebnisse nach Ähnlichkeit (near to far).
  • verknotetes Suchen: Man kann eine zweite Suche durchführen und mit der ersten Suche zusammen anzeigen lassen, indem man auf den rechten Suchbutton klickt, der mit zwei Lupen dargestellt ist. 
Fazit: Für die LeserInnen unseres Buches Recherche 2.0 und die TeilnehmerInnen unserer Seminare zur professionellen Internetrecherche stellt serioussearch.de ein interessantes neues Angebot dar, das Sie auf jeden Fall testen und in Ihr Arsenal an Suchinstrumenten aufnehmen sollten.

Montag, 30. März 2015

Allgemeine Suchmaschinen - Update

In unseren Seminaren zur Thematik "professionelle Internetrecherche und webbasiertes Wissensmanagement" folgen wir bekanntlich der auch in unserem Buch Recherche 2.0 zugrundegelegten Heuristik "Finden > Bewerten > Festhalten > Auf dem Laufenden bleiben".

Beim ersten Schritt, dem "Finden", geht es um eine schlagkräftige Auswahl aus den unterschiedlichen Kategorien von Suchhilfen, die im Web (2.0) zur Verfügung stehen. Dazu zählen selbstverständlich auch die verschiedenen Arten von Suchmaschinen, zu denen als eine Unterkategorie auch die bekanntesten Suchhilfen gehören, nämlich die allgemeinen Suchmaschinen. Hier haben wir bislang folgende Dienste behandelt:

Diese Liste haben wir nun insofern modifiziert, als Yahoo herausgefallen ist, weil dort dieselben Ergebnisse angezeigt werden wie bei Bing. Hinzugenommen haben wir die russische Suchmaschine Yandex, die mit einem eigenen Index arbeitet und damit Google und Bing sinnvoll ergänzt. Außerdem behalten wir einen Anbieter aus der Schweiz im Auge: Swisscows. Hier wären wir dankbar, wenn Sie uns Ihre Erfahrungen mit diesem Dienst mitteilen würden.

Daraus ergibt sich die folgende neue Auswahl an allgemeinen Suchmaschinen:

Sonntag, 15. März 2015

Big Data - APuZ

Die aktuelle Ausgabe (APuZ 11-12/2015) der Zeitschrift "Aus Politik und Zeitgeschichte" der Bundeszentrale für politische Bildung (www.bpb.de) befasst sich mit Big Data und enthält eine Reihe äußerst lesenswerter Aufsätze, allen voran einen Beitrag von Viktor Mayer-Schönberger, "Internet-Professor" in Oxford, mit dem Titel: "Was ist Big Data? Zur Beschleunigung des menschlichen Erkenntnisprozesses":
"Big Data ist also weniger eine neue Technologie denn eine neue oder jedenfalls signifikant verbesserte Methode der Erkenntnisgewinnung. Mit Big Data verbindet sich die Hoffnung, dass wir die Welt besser verstehen – und abgeleitet von diesem Verständnis bessere Entscheidungen treffen." (S. 14)
Mit eindrücklichen Beispielen schafft es der Autor, auf wenigen Seiten die wesentlichen Chancen und Risiken von Big Data zu verdeutlichen.

Insgesamt umfasst die Ausgabe die folgenden Aufsätze:

Mittwoch, 14. Januar 2015

TED Talk: Machine Learning

Die Zeiten sind vorbei, da Computer lediglich das machen konnten, was Menschen vorab programmiert hatten. Die Stichworte lauten big data und machine learning. Jeremy Howard zeigt in diesem TED Talk den (ebenso faszinierenden wie erschreckenden) Stand der Dinge auf:

Samstag, 10. Januar 2015

Politik und Internet (Bürger im Staat)

Die aktuelle Ausgabe der Zeitschrift "Bürger im Staat", die von der Landeszentrale für politische Bildung Baden-Württemberg (lpb-bw) herausgegeben wird, beschäftigt sich mit verschiedenen Aspekten der Thematik "Politik und Internet". Die Zeitschrift kann kostenlos bestellt oder heruntergeladen werden. Sie umfasst folgende Aufsätze:
  • Marianne Kneuer: Mehr oder weniger demokratische Qualität durch das Internet?
  • Thomas Demmelhuber: „Befreiungstechnologie“ Internet: Social Media und die Diktatoren
  • Andreas Marchetti: Europa im digitalen Zeitalter: Mehr Bürgernähe durch das Internet?
  • Daniela Hohmann, Thorsten Faas: „Das weiß ich von Facebook!“ – Politische Informationspotenziale in sozialen Online-Netzwerken im Kontext der Bundestagswahl 2013
  • Martin Fuchs: Facebook, Twitter und Co. in der deutschen Politik
  • Alma Kolleck: Kommunale Online-Beteiligung: Stand und Herausforderungen kommunaler Bürgerbeteiligung
  • Alexander Hensel: Erfolgreich gescheitert? Die Entwicklung der Piraten als Partei der Internetkultur
  • Saskia Richter, Tobias Bürger: E-Petitionen als Form politischer Partizipation. Welchen Nutzen generieren digitale Petitions-Plattformen?
  • Nicola Döring: Psychische Folgen der Internetnutzung
  • Sarah Mönkeberg: Feststellungen der Identität? Über Nutzen und Laster digitaler Sichtbarkeit
  • Joachim Griesbaum: Internet und Lernen – Auswirkungen des Social und Mobile Web auf Lernprozesse und Lerninfrastrukturen
  • Stefan Schieren: Politische Skandale im digitalen Zeitalter