Glossar

S

Schwarze Liste

Schwarze Liste ist der deutsche Begriff zu Black List. In der Schwarzen Liste befinden sich alle E-Mail-Server, welche bereits durch Spamming-Aktivitäten negativ auffielen.

Script

Scripte haben die Aufgabe in Form von Befehlen eine angewandte Programmiersprache zu erweitern. Grundlegender Vorteil von Scripten ist die Tatsache, dass sie sich relativ einfach auf Webseiten einbinden lassen. Bekannte Scripte sind bspw. Javascripte.


Search Engine Advertising (SEA)

SEA (dt. Suchmaschinenwerbung) steht für die Schaltung von formatunterschiedlichen Werbeanzeigen auf Basis von Schlüsselwörtern, die zuvor festgelegt wurden. Wir nun eine Suchanfrage bei den Suchmaschinenanbietern getätigt und die relevanten Schlüsselwörter verwendet, so wird die Anzeige geschaltet. Die Anzeigen werden als Werbung gekennzeichnet und in ausgewählten Bereichen der Website mit den Suchergebnissen angezeigt.


Search Engine Marketing (SEM)

Search Engine Marketing (dt. Suchmaschinen Marketing) steht für alle Maßnahmen zur effektiven Nutzung der Suchmaschinen, weiterer Angebote der Suchmaschinenbetreiber sowie anderer Mittel und Wege, um eine Website hinsichtlich Bekanntheit und Erfolg zu verbessern. SEM wird unterteilt in die Bereiche Search Engine Advertising (SEA, dt. Suchmaschinenwerbung) und Search Engine Optimization (SEO, dt. Suchmaschinenoptimierung).


Search Engine Optimization (SEO)

Search Engine Optimization (dt. Suchmaschinenoptimierung) umfasst die technischen und inhaltlichen Maßnahmen, um die Positionierung einer Website in den Ergebnissen der Suchmaschinen zu verbessern und diese zu halten. Der Bereich der SEO teilt sich in zwei Schwerpunkte auf, die On-Page  bzw. Onsite-Page Optimierung und Off-Page bzw. Offsite Optimierung.

Seitentitel

Als weiteres wichtiges Rankingkriterium gilt der Seitentitel. Jede Webseite besitzt einen eigenen Titel, der von den meisten Suchmaschinen als Beschreibung der Webseite in den Suchergebnislisten aufgeführt wird.


SERP

SERP ist eine Abkürzung und bedeutet „Search Engine Results Position“. SERP steht für das Ranking einer Website in Bezug auf ein bestimmtes Schlüsselwort, das bei einer Suchmaschine angefragt wird.

Session ID

„Session IDs“ treten bei dynamisch erzeugten Webseiten auf und man erkennt sie i.d.R. an einem zusätzlichen Anhang der URL, wie z.B. http:///www.ihredomain/index.php?sid=beispiel.


Sitemap

Eine Sitemap ist eine Datei, in der die Linkstruktur aller Seiten einer Internetpräsenz enthalten ist. Ein häufiges Format ist XML. Die Sitemap soll einerseits dem Besucher einen schnellen Überblick über die Bereiche einer Präsenz liefern, zum anderen die Suchmaschinen mit genauen Informationen zur logischen Positionierung und der generellen Existenz von einzelnen Webseiten liefern.

Slices

„Slices“ dienen dazu Grafiken oder Bilder in kleinere Stücke aufzuteilen. Ziel dieser Zerstückelung ist es dadurch Ladezeiten zu verkürzen, so dass ein Besucher den Aufbau einer Webseite live mitverfolgen kann und nicht den kompletten Aufbau einer Webseite abwarten muss.

SMO

SMO ist das deutschsprachige Synonym für „Search Engine Optimization“ (SEO) und befasst sich mit Maßnahmen im Hinblick auf Suchmaschinenoptimierung.


Soft-Bounce-Mail

Mails, welche z.B. mit dem Fehlermeldungshinweis „Postfach voll“ an den Absender zurückgeschickt werden, bezeichnet man als Soft-Bounce-Mails.

Spam

In Bezug auf Suchmaschinenoptimierung bezeichnet „Spam“ bewusst durchgeführte Manipulationsversuche, um eine Webseite im Ranking einer Suchmaschine höher zu positionieren. In Verbindung damit wird oftmals von „Keyword-Spam“ gesprochen, d.h. der Content einer Seite wird künstlich mit Keywords aufgebläht ohne dabei auf einen inhaltlichen Sinn des Contents zu achten.

Spamdexing

Werden auf Webseiten relevante Keywords permanent und extrem häufig wiederholt, ausschließlich um im Ranking einer Suchmaschine seine Position zu verbessern, dann spricht man von „Spamdexing“. Derartige Webseiten, die speziell für Suchmaschinen ausgerichtet sind, werden von Suchmaschinenbetreiber i.d.R. aus dem Index entfernt.


Spammer

Der Begriff Spammer wird in erster Linie im Kontext mit dem unverwünschten Massenversand von E-Mails genannt. Auch der Einsatz von manipulativen Mitteln im Rahmen der Suchmaschinenoptimierungen ist darunter zu verstehen.

Spamming- Filter

E-Mail Programme blockieren mittels eines „Spamming-Filters“ unerwünschte Werbemails. Dieser Filter blockiert zum einen automatisch, bekannte Spamadressen und zum anderen auch vom Benutzer manuell festgelegt Adressen.

Spider

Spider ist ein Synonym für Robot oder Crawler. Es handelt sich hierbei um ein Programm, das die Aufgabe hat, bekannte Websites aufzurufen und die Inhalte an die Suchmaschinen weiterzuleiten, die diese Daten weiterverarbeiten. Die Verwendung von vielen Verbindungen gleichzeitig lässt eine schnelle Erfassung der Websites sowie die Umgehung von Verbindungsproblemen zu.


Splash Page

Seiten, welche größtenteils Bilder oder Flashanimationen als Inhalt aufweisen, werden als Splash Pages bezeichnet. Die Verwendung solcher Inhaltsformate ist sehr suchmaschinenfeindlich, da diese nicht in der Lage sind geeignete Informationen (Content, Links) auszulesen. Entsprechend schlecht wird eine Seite ranken.

Sponsored Links

Neben organischen Suchergebnissen ist es auch möglich Links oder Einträge in den Suchergebnislisten zu kaufen oder zu mieten. Diese sog. „Sponsored Links“ sind i.d.R. auf den ersten Plätzen der Suchergebnisse zu finden und werden speziell gekennzeichnet.

SSL

SSL ist die Abkürzung für „Secure Socket Layer“. Webseiten, die eine SSL-Verschlüsselung, z.B. beim Bezahlvorgang anbieten, stellen ihren Besuchern eine gesicherte Verbindung beim Datentransfer zur Verfügung.

Stemming

„Stemming“ ist ein von Suchmaschinen eingesetztes Verfahren, das Wörter auf ihren grundlegenden Wortstamm reduziert. Suchmaschinenbetreiber setzen dieses Verfahren ein, um die Qualität der Suchergebnisse zu verbessern.

Subdomain

Subdomains erkennt man an einem Buchstabenzusatz vor der eigentlichen Domain, bspw. http://subdomain.ihredomain.de.

Suchbegriffe

Unter einem Suchbegriff versteht man ein Wort bzw. eine Kombination von Wörtern oder auch eine Zeichenabfolge, die als Anfrage bei einer Suchmaschine dient.

Suchergebnisse

Suchergebnisse oder sog. „SERPs“ bezeichnen die Resultate einer Suchanfrage bei einem Suchdienst.


Suchmaschine

Eine Suchmaschine ist ein Programm mit komplexen Algorithmen, welche für die Recherche in Dokumenten optimiert ist. Gibt ein Benutzer einen Begriff in den Suchschlitz ein, so wird aus den gespeicherten Datenbeständen in Echtzeit eine Ergebnisliste erzeugt, die Verweise auf Dokumente mit dem Suchbegriff enthält. Die Kriterien für die Wahl und Anordnung (Ranking) der Dokumente sind vielfältig und werden von den Suchmaschinenanbietern nicht veröffentlicht, um u.a. Manipulationen an den Ergebnissen zu verhindern.

Suchmaske

Suchmasken findet man zumeist bei Suchmaschinen oder auf der Startseite vieler Webseiten. Eine Suchmaske ist im Prinzip ein anderes Wort für den Suchschlitz, also das Eingabefeld einer Suchmaschine oder einer Suchfunktion.


Suchvolumen

Das Suchvolumen gibt Aufschluss darüber, wie viele Suchanfragen zu einem Schlüsselwort in einem definierten Zeitfenster erfolgten.

T

Tagline

Bei einer Übersichtsseite zu einem Unternehmen bzw. der Zusammenfassung einer Webseite spricht man von einer „Tagline“. Dargestellt wird die Tagline einer Webseite zumeist als Logo des Unternehmens.

Targeting

„Targeting“ ist der Obergriff für einen zielorientierten Einsatz von Online-Werbung. Dabei können unterschiedliche Faktoren das Targeting beeinflussen und zu verschiedenen Targeting-Arten führen (Geo-Targeting, Browser-Targeting, Behavioral-Targeting, etc.).

Textlink

Hyperlinks, die als Text bzw. aus einem oder mehreren Wörtern hinterlegt werden bezeichnet man als Textlinks. Es wird dabei unterschieden zwischen internen Links, welche auf Inhalte der gleichen Webseite verweisen und externen Links, die zu einer anderen Webseite weiterleiten.

Theme Based Websites

Die Themenrelevanz spielt insbesondere beim Aufbau von Backlinks eine entscheidende Rolle. Suchmaschinen wie Google bewerten Links von themenverwandten Seiten positiver, als von nicht themenrelevanten Webseiten.

TKP (Tausenderkontaktpreis)

Beim Tausenderkontaktpreis handelt es sich um ein weiteres Abrechnungsmodell im Online Marketing Sektor. Der TKP repräsentiert denjenigen Betrag, der aufgewendet werden muss, um 1.000 Anzeigenschaltungen (Impression) zu bezahlen.  Die Anzeigen werden einem vordefinierten Publikum angezeigt, welches diese nur sehen muss. Eine Aktion, wie z.B. ein Click auf die Anzeige, ist nicht erforderlich.


Thin-Affiliate

Mit Thin-Affiliate bzw. Thin-Affiliate-Sites werden Websites beschrieben, die fast ausschließlich mit AdWords-Anzeigen versehen sind und ansonsten keinen brauchbaren Inhalt bieten. Solche Seiten werden seitens Google, dem Betreiber von AdWords, überhaupt nicht geduldet.

Tiefen-Indexierung

Im Rahmen einer Tiefenindexierung werden vor allem die tiefer liegenden Verzeichnisstrukturen einer Webseite untersucht. Dieser Indexierungsvorgang führt der „Deepbot“ aus und findet i.d.R. zeitlich erst einige Zeit nach der ersten Indexierung statt.

Top-Level-Domain

Die „Top-Level-Domain“ (TLD) beschreibt den letzten Teil eines Domainnamens, wie bspw. .de oder .com. Generell unterscheidet man zwei Arten von Top-Level-Domains, länderspezifische Endungen (.de, .com) und allgemeine TLDs (.info, .org).

Tracking

Mittels Tracking ist es möglich, Benutzeraktivitäten zu loggen und zu einem späteren Zeitpunkt nach verschiedenen Kriterien genau zu analysieren.  So ist es bspw. möglich nachzuvollziehen, welche Seiten der Besucher wann aufrief und wie lange er sich dort aufhielt. Tracking ist ein wichtiges Fundament für eine erfolgreiche Suchmaschinenoptimierung.


Traffic

Traffic bezeichnet den Personen- und Datenverkehr auf einer Website.


Trust-Rank

In Bezug auf den Suchmaschinenanbieter Google steht der Trust-Rank für eine Kennzahl, die das Vertrauen in eine bestehende Website abbildet. Dieser Wert ist nach außen hin nicht sichtbar und demnach unbekannt.

U

Unique User

Die Anzahl an „Unique User“ gibt an, wie viele einzelne User eine Werbeanzeige in einem bestimmten Zeitraum gesehen haben. Unterschied zu den „Visits“ ist, dass „Unique User“ nur einmal gezählt werden und nicht wie bei den „Visits“ jede Betrachtung gewertet wird.

URI

Mit Hilfe des „Uniform Resource Identifier“ wird die Adresse und der Dokument- bzw. Dateityp beschrieben. Die URL einer Webseite ist einer Unterform des URI.

URL

Eine URL („Uniform Ressource Locator“) ist eine eindeutige Zuordnung zu einer Ressource über den Standort und/oder den Zugriffsmechanismus auf diese Quelle.

Usability

Gemäß DIN EN ISO 9241-11 ist Usability folgendermaßen definiert: „Usability ist das Ausmaß, in dem ein Produkt durch bestimmte Benutzer in einem bestimmten Nutzungskontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und zufrieden stellend zu erreichen.“ In Bezug auf eine Website steht die Usability für die Benutzerfreundlichkeit und Bedienbarkeit.


User-Agent

Ein User-Agent ist ein Programm, mittels dem z.B. Daten bei Suchmaschinen an- und abgefragt werden können. Zu den User Agents zählen neben dem Internet-Browser auch die Crawler der Suchmaschinen.

V

Validator

Zur Kontrolle der Einhaltung von HTML-Standards auf Webseiten oder für HTML-Dokumente werden spezielle Programme, sog. „Validator“ eingesetzt.

Validierung

Um sicherzustellen dass eine Webseite von einer Suchmaschine korrekt erfasst werden kann, wird mit Hilfe von bestimmten Programmen ein Validierungsprozess durchgeführt, um die korrekte Eingabe aller HTML-Codes zu überprüfen.

Vertikale Suchmaschinen

Vertikale Suchmaschinen sind thematisch spezialisiert. Ihr Index ist bspw. nur auf den Bereich des Sports konzentriert. Sie repräsentieren daher nur eine Teilmenge des Internets. Die Recherche ist aufgrund der Spezialisierung zumeist weitaus effektiver und schneller als in normalen Suchmaschinen.

Verzeichnis

In einem Verzeichnis oder Webkatalog werden im Internet veröffentlichte Webadressen gesammelt und gleichzeitig nach sinnvollen Kriterien kategorisiert.

Visible Web

Innerhalb des „Visible Web“ findet man alle frei zugänglichen Dokumente im World Wide Web. Im Gegensatz dazu zählen nicht allgemein freigegebene Dokumente zum „Deep Web“. Diese Dokumente können auch nicht von Suchmaschinen erfasst werden.


Visits

Die Kennzahl Visits ist ein Wert, der darüber Aufschluss gibt, wie viele Besucher auf einer einzelnen Website sowie der gesamten Internetpräsenz innerhalb eines vordefinierten Zeitfensters aktiv waren.

W

W3C

Die W3C ist ein Mitte der 90er Jahre gegründeter Verband aus Forschungsinstituten und IT-Unternehmen, die sich mit der Entwicklung von Internet Standards befassen. Oftmals etablieren sich von dem „World Wide Web Consortium“ getroffene Empfehlungen auch innerhalb kürzester Zeit als Industriestandard.

Web-Analytics

Mit dem Begriff Web-Analytics (dt. Web-Analyse) werden heutzutage alle datenbezogenen Erhebungen zusammengefasst, welche als Ziel haben, Informationen zu einem Online-Angebot zu sammeln, um hieraus u.a. Rückschlüsse über das Verhalten von Besuchern zu ziehen und das Angebot zu optimieren.

Webdesign

Im Allgemeinen bezeichnet man die Erstellung bzw. Überarbeitung einer Webseite als „Webdesign“.

Webnapping

Das unzulässige Kopieren von Inhalten, Bildern oder gar kompletten Webseiten wird als „Webnapping“ bezeichnet. Gestohlene Inhalte werden i.d.R. relativ schnell als „Duplicate Content“ erkannt und die entsprechenden Webseiten in der Folge durch die Suchmaschinenbetreiber abgestraft. Darüber hinaus zieht „Webnapping“ oftmals auch rechtlich Konsequenzen mit sich.


White-List

In der White-List werden alle seriösen und nicht spamverdächtigen E-Mail-Server aufgelistet. Die Liste wird von E-Mail-Server-Betreibern (automatisiert) geführt. Neben dieser Liste gibt es noch die Grey-List und Black-List.


Weiterleitung

Eine Weiterleitung ist auch als Redirect bekannt.  Mittels client- oder serverbasierten Techniken wird ein Besucher beim Aufruf einer Adresse/URL nach einer vordefinierbaren Zeit automatisch auf eine Zielseite weitergeleitet. Weiterleitungen, welche durch Scripte oder Tags realisiert wurden, sind bei Suchmaschinen nicht gerne gesehen.


White Hat SEO

White Hat SEO beinhaltet alle Maßnahmen zur Suchmaschinenoptimierung einer Website, die sich streng nach den Richtlinien der Suchmaschinenbetreiber orientieren und diese umsetzen. Das Gegenteil ist Black Hat SEO, welches mitunter schwere Folgen für die betroffene Website mit sich bringen kann (Abstrafung, Ausschluss aus dem Index).

Z

Zielseite

Werden Webseiten oder einzelne Dokumente miteinander verlinkt, dann bezeichnet man das Ziel, sprich die externe Webseite bzw. Dokument, als Zielseite.

© 2017 seo2b.de. All Rights Reserved. — Designed by seo2b - Onlinemarketing Agentur im Raum Trier, Luxemburg und Saarbrücken