Digitale Transformation von und für Unternehmen

Die Zukunft der Twitter-Search, Echtzeitsuche & die alte Google-Welt


Empfehlen Sie diesen Beitrag Ihren Xing-Kontakten Ihren XING-Kontakten zeigen

Ich habe meine Beachtungen zur den Themen Echtzeitsuche, Twitter Search und deren Potential im Vergleich zur Google-Welt in einem Gastbeitrag für Gründerszene zusammengefaßt.

Der Beitrag ist heute online gegangen und ich würde mich über Kritik und eine rege Diskussion freuen…. :)

Schlagworte: , , ,

7 Kommentare

  1. Sehr schöner Artikel, wobei ich etwas anzweifele, ob die Ranking-Kriterien so handverlesen sein sollten. Besser wäre es doch, man lässt einen Algorithmus lernen? Man kann doch auch nicht so verallgemeinern: warum z.B. sollen Retweet-Bots kategorisch ausgeschlossen werden? Wenn sie guten content liefern, warum diesen nicht indizieren? Wenn nicht, wird ihnen ohnehin niemand folgen, und somit werden sie auch nicht gut ranken.

  2. @Björn: Ich plädiere für den Ausschluß der Bots, weil es ansonsten in einem Wettrüsten der potentesten Bots münden würde. Ein Humanoider hätte keinerlei Chancen, auf einer der vorderen Seiten einer Echtzeitsuche zu landen.

    Technisch sind Bots trivial:

    RSS-Feed auslesen, ggf. umformulieren, die URL verkürzen, zuvor definierte #Tags zufügen – fertig ist der perfekte Content-Twitterer.

    Steht die Infrastruktur einmal, besteht die einzige Leistung darin, die lesenswerten Feeds einer jeden Themennische, die bedient werden soll, zu hinterlegen und einige Keywords zu definieren.

    Gibt es dann noch die Möglichkeit, jeweils Subsets von der Gesamtheit aller hinterlegten RSS-Feeds zusammenzufassen, dann steht dem Zuspammen der Echtzeitsuche mit “gutem” Content nichts mehr im Wege.

    Und in einem derartigen Twitterversum möchte ich wirklich nicht leben.

  3. Schöne Zusammenfassung.

    Dazu ergänzend weitere Anregungen, zum Retwittern und den möglichen Bot-Strategien:

    Vorneweg: Die Ergebnisse einer Twitter Suche wie von dir beschrieben kann auch als Atom-Feed abonniert werden, zeitaktuell.

    Das eröffnet für das Parsen auf dem eigenen System neue Möglichkeiten, die mit den aktuellen Twittersuchfunktionen so nicht realisiert werden können.

    Derzeit laboriere ich an einem neuen Twittertool, mit dem Spambots/Retweet Bots über eine Blacklist rausgefiltert werden, das Ergebnis außerdem mit einer regionalen Umkreisssuche per Georeferenzierung verknüpft wird, schliesslich noch alle Antworten rausfliegen, (da die Dialoge nur schwer nachzuvollziehen sind) und eine frei wählbare Stichwortsuche möglich ist.

    Damit komme ich an aktuelle, lokal diskutierte Ereignisse dicht am Originalautor und nah am Thema heran.

    Das Ergebnis wird als regionale Twitter Live-Wall in meinem Blog angezeigt, und aktuell auch zu besonders im Fokus stehenden Themen verfeinert, was zu bestimmten Artikeln mit regionalem Schwerpunkt viel Sinn macht. Beispiel: Regionale Musiktage übers Wochenende, dazu die aktuelle Twitterwall im Blog. Oder Bürgerentscheid zu einer heiss diskutierten Umgehungsstrasse in Darmstadt, dazu alle Twitts auf der Twitterwall.

    Bestimmte Autoren haben dabei klar erkennbare Themenkompetenzen. Ich setze allerdings nicht auf ein 100% automatisiertes Bewertungssystem, um solche Perlen zu filtern. Funktioniert schlicht nicht ohne Riesenaufwand, und passende Algorithmen dafür sind und bleiben ein Traum.

    Interessanter ist denke ich mein Ansatz, zu jedem angezeigten Beitrag eine Funktion anzubieten, bei dem der Leser dem gerade gelesenen Twitt zusätzlich Zeit (5 Minuten) schenken kann. “Den Twitt find ich gut, *Klick*, 5 Minuten drauf”. Damit bleiben gute Twitts länger auf der eigenen Twitter Timewall im Blog zu sehen, verwaltet von eigenen Bonusapplikationen.

    In solchen “Homemade, customized & well beloved” Twitterstreams sehe ich das grösste Potential für Twitter.

    Grüsse, Peter Löwenstein

  4. Ein Wettrüsten der Bots wäre doch nicht schlecht, wenn dabei gute, nützliche Bots herauskommen. Zuspammen kann so ein Bot doch eigentlich nichts: wenn ein Bot nur keywords/linkbaits twittert, followed ihm doch niemand?

    Ausser andere Bots – natürlich würde es wie im WWW den Versuch geben, durch Linknetzwerke künstlich PageRank zu erzeugen. Dann hängt es eben von den Algorithmen ab, das irgendwie zu erkennen.

    Angenommen der Algorithmus kann schon Bots von Menschen unterscheiden (evtl. nicht trivial?), dann könnte er ja auch Kriterien wie “wird von vielen Menschen verlinkt” enthalten (nur als Beispiel).

  5. @Björn Auf Twitter folgen ist eine Sache, aber mich interessieren gerade die Suchergebnisse in der neuen Twitter-Search. Und hier möchte ich Bots nicht drin haben, es sei denn, eine Ausnahme von dieser Regel brächte allen einen Vorteil.

    Sonst haben wir innerhalb kürzester Zeit ein ähnliches Problem, wie heute auf Google: Twitter Search Optimization, ausgeführt von hochbezahlten Nerds. Und niemand ohne Spezialkenntnisse und tiefe Taschen hat mehr eine Chance, über die Twitter-Search gefunden zu werden…

    Ich würde daher gern im Vorfeld diejenigen Faktoren ausschalten wollen, mit denen man nach der bisherigen Erkenntnissen vermutlich versuchen wird, die Suchergebnisse zu manipulieren.

    (Cooler Austausch, laß uns weitermachen… :) )

  6. Ich denke, eine Art Page-Rank ist trotzdem einfach für Twitter umzusetzen: Verrechnet man das Follower-(und Tweet-)-Verhältnis und das dann nochmals mit demjenigen der Follower, kommt ein Wert ähnlich wie beim Page-Rank heraus. Follower-Sammler bekämen automatisch Abwertungen, da sie nicht so „gute“ Follower haben.

    Die Kommunikation mit seinen Friends/Followern sollte auch in einem guten Verhältnis stehen. Bei 10.000/10.000 ist das für einen Normalmenschen kaum machbar. Bei 500/500 wäre es aber noch einfach umzusetzen. Somit würden die reinen Sammler herausfallen. Personen mit z. B. 200/1000 hätten von vorne herein einen guten Wert. Und, wenn ein 200/1000er einer neuen Person folgt, ist das auch sicher mehr wert, als wenn ein 10.000/10.000er dies tut.

    Und das ist genau der Page-Rank, oder?

  7. Ich vermute in der Praxis wird man den Page Rank noch mit anderen Werten multiplizieren, z.B. könnte ich mir einen PageRank pro Suchbegriff vorstellen.

    Zur Twitter-Suche: aktuell liefert diese wohl einfach nach Zeit sortierte Suchergebnisse. Früher oder später wird dort aber auch gewichtet werden müssen, und ab dann müssten die Bots rausfallen.

Bitte kommentieren Sie