Ein SEO Audit, auch SEO Website Analyse genannt, ist die gründliche Untersuchung einer Website im Hinblick auf alle SEO-relevanten Aspekte. Es soll damit sichergestellt werden, dass deine Website gängige SEO Best Practices erfüllt, das Maximum aus bestehendem Content herausholt und keine grundsätzlichen Probleme auftreten, die beispielsweise der Indexierung oder guten Rankings im Wege stünden.
Ein SEO Audit sollte zu Beginn aller SEO-Maßnahmen stehen und das Erste sein, was eine Agentur oder ein selbstständiger SEO-Dienstleister für dich macht. Denn schließlich offenbart erst ein SEO-Audit, wo es Schwächen und Verbesserungspotenziale gibt, und gibt damit wichtige Hinweise darauf, welche Maßnahmen für ein Website-Projekt besonders geeignet oder erfolgversprechend sind.
Im Folgenden möchte ich dir zeigen, was alles zu einem SEO Audit dazugehören sollte und gebe dir eine Checklist an die Hand, nach der du deine Website selbst auf die wichtigsten Aspekte hin überprüfen kannst.
Darum ist ein (professioneller) SEO Audit unbedingt nötig
Wenn du darüber nachdenkst, SEO für deine Website anzugehen, ist ein SEO Audit immer der erste Schritt dafür. Es ist notwendig, um auszuschließen, dass gravierende technische Probleme die Indexierbarkeit deiner Website einschränken, was wiederum alle weiteren Maßnahmen ad absurdum führen würde. Gleichzeitig stellt er sicher, dass alle auftretenden Probleme zielgerichtet angegangen werden. Das Ziel eines SEO Audits ist, Handlungsempfehlungen zu erstellen, nach deren Umsetzung deine Website alle gängigen Best Practices erfüllt und damit der Weg für deinen weiteren SEO-Erfolg geebnet ist.
Je früher du einen SEO Audit durchführst, desto besser. Manche Probleme können katastrophale Folgen haben, etwa wenn deine Website aufgrund falscher Einstellungen gar nicht indexiert werden kann. Andere Probleme haben vielleicht nicht so katastrophale Folgen, lassen sich jedoch hinterher nur noch erschwert oder mit negativen Folgen reparieren wie etwa deine URL- und Informationsstruktur.
Ich rate unbedingt dazu, so früh es geht SEO ins Boot zu holen, am besten direkt bei der Website-Erstellung oder bei einem Relaunch. Und ich rate dir auch, einen Profi zu engagieren. Du kannst mit ein bisschen Einsatz selbst schon einiges bewegen und zumindest sicherstellen, dass es keine katastrophalen SEO-Mängel gibt, aber ein Profi kann mit seiner ganzen Erfahrung wirklich alle relevanten Faktoren bewerten und die besten Handlungsempfehlungen für dich entwerfen. Damit kannst du dir am Ende sicher sein, dass deine Website wirklich das Maximum an Sichtbarkeit aus ihren Inhalten herausholt und keine Rankings aufgrund vermeidbarer Mängel einbüßt.
Außerdem ist es ratsam, einen SEO Audit regelmäßig zu wiederholen, damit Änderungen bei technischen Vorgaben und Best Practices Rechnung getragen werden und Fehler, die sich bei Änderungen an der Website einschleichen können, rechtzeitig zu entdecken.
Grundsätzlicher Aufbau
Ein SEO Audit gliedert sich in verschiedene Teilbereiche, die allesamt unterschiedliche Aspekte berücksichtigen. Ich untergliedere einen SEO Audit in vier Teilbereiche: Technisch, On-Page, Off-Page und Local. Jeder einzelne Bereich benötigt unterschiedliche Tools und eine eigene Herangehensweise.
Zwar ist jeder einzelne Teilbereich wichtig, doch ich priorisiere nach der obigen Reihenfolge, da Fehler im technischen Setup zumeist die katastrophalsten Folgen haben können. Ich würde dir raten, diese Reihenfolge einzuhalten, wenn du einen SEO Audit auf eigene Faust durchführen möchtest. Ein Muss ist das jedoch nicht, da die Teilbereiche relativ unabhängig voneinander sind.
Ein Local SEO Check ist in der Regel nur dann relevant, wenn du ein lokal agierender Dienstleister bist oder über eine physische Betriebsstätte verfügst, in der du regelmäßig Kundenkontakt hast.
Technischer SEO Audit
Bei einem technischen Audit steht vor allem im Vordergrund, ob deine Website richtig gecrawlt und indexiert werden kann und ob sie bei Besuchern auf verschiedenen Endgeräten richtig dargestellt wird. Gibt es hier Fehler, kann die SEO-Performance ungeachtet der restlichen SEO-Faktoren stark beeinträchtigt werden oder deine Seite sogar unter Umständen gar nicht im Index erscheinen.
Benötigte Tools: Google Search Console, Screaming Frog (oder ähnliches), Pagespeed Insights, Server-Log-Dateien
Robots.txt
Die robots.txt ist eine Datei, die im Root-Verzeichnis deiner Website liegen muss und Crawlbots wie jene von Google darüber aufklärt, welche Bereiche von ihnen gecrawlt werden dürfen. Es ist unbedingt notwendig, dass deine Website eine solche Datei anbietet, da sie sonst von den meisten gängigen Bots ignoriert wird und nicht im Suchmaschinenindex erscheinen kann. Außerdem muss Suchmaschinen-Crawlbots über die robots.txt unbedingt Zugang zu den Inhalten deiner Website gewährt werden.
Sie sollte über folgende URL erreichbar sein: [deinedomain.tld]/robots.txt
Alle gängigen Content Management Systeme (CMS) erstellen automatisch eine robots.txt, die das Crawlen aller relevanten Inhalte durch Suchmaschinen erlaubt. Ich rate dir, im Zweifelsfall nichts selbst umzustellen und bei Fragen einen Profi zu beauftragen.
Server- & Website-Erreichbarkeit
Erlebt deine Website regelmäßig Ausfälle und ist nicht für Besucher erreichbar? Oder gibt es Probleme mit einzelnen URLs oder Dateien? Dies sollte unbedingt gefixt werden, da solche Fehler nicht nur negative Konsequenzen für deine Rankings haben können, sondern auch User dazu bewegen, deine Website nicht länger aufzusuchen.
Informationen darüber gibt es in den Log-Dateien deines Server-Providers.
Indexierfähigkeit
Unabhängig davon, ob eine Suchmaschine deine Website crawlen kann, kannst du ihr auf der einzelnen URL-Ebene die Anweisung geben, diese für die Indexierung nicht vorzusehen. Das wird im Quellcode oder im http-Header durch die Zeile „<meta name=’robots‘ content=’noindex‘>“ realisiert. URLs mit diesem Befehl werden nicht indexiert, da Suchmaschinen dieser Bitte in der Regel nachkommen.
Grundsätzlich ist jede URL ohne diese Anweisung für die Indexierung zulässig, eine explizite „Erlaubnis“ ist anders als beim Crawlen nicht nötig, weshalb es seltener zu Fehlern kommt. Allerdings gibt es beispielsweise bei WordPress eine Einstellung, die deine gesamte Website auf noindex setzt, was praktisch sein kann, wenn diese sich noch in der Entwicklungsphase befindet. Ich habe es schon erlebt, dass diese Einstellung nach dem Launch vergessen wurde und eine Website noch Monate später nicht indexiert werden konnte.
In anderen Fällen kann ein noindex-Befehl bei einzelnen URLs fälschlich eingestellt sein, weshalb dies unbedingt gründlich gecheckt werden sollte. Dies ist meinem Tool wie dem Screaming Frog sehr einfach möglich, da er jede URL einzeln durchgeht und den Indexierungsstatus loggt.
SSL (https)
Websites können über SSL verschlüsselt werden, was Benutzer insbesondere bei der Eingabe von persönlichen Daten sehr gut vor Angriffen schützt. Heutzutage ist SSL absoluter Standard, jede Website sollte auf diese Weise verschlüsselt sein. Du kannst es daran erkennen, dass die Adresszeile mit https:// beginnt anstatt mit http://.
Websites ohne SSL können mit modernen Browsern häufig nicht mehr ohne Weiteres aufgerufen werden, weshalb dieser Aspekt sehr wichtig ist. Gleichzeitig ist es bei fast allen modernen Domainpaketen automatisch enthalten. Eine Analyse kann sich dennoch sehr lohnen, da es sein kann, dass einzelne Ressourcen ohne SSL eingebunden werden oder es keine Weiterleitung von http auf https gibt.
www vs. nicht-www
Im Volksmund beginnt jede Webadresse mit „www“, allerdings ist das technisch nicht korrekt. Technisch gesehen handelt es sich bei „www“ um eine Subdomain, die rein optional ist. Du kannst eine Domain problemlos ohne „www“ aufsetzen. Ein wirklicher Vor- oder Nachteil von der Nutzung einer www-Adresse ergibt sich in der Regel nicht. Allerdings muss sichergestellt sein, dass du dich für eine Variante entscheidest und eine Weiterleitung auf diese eingerichtet ist.
Du musst unbedingt vermeiden, dass deine Website jeweils mit und ohne „www“ im Internet erreichbar ist. Für Google sind dies nämlich zunächst zwei komplett unterschiedliche Webadressen mit jedoch exakt gleichem Inhalt. Damit hast du also deine gesamte Website effektiv gespiegelt. Gleichzeitig machst du es für Google schwer zu entscheiden, welche Version in den Suchergebnissen ausgespielt werden soll.
Am besten richtest du auf der Ebene der sogenannten htaccess eine Weiterleitung auf deine präferierte Version ein. Du hast keine Ahnung, wovon ich spreche? Dann lass hier am besten einen Profi ran!
Sitemaps
Eine Sitemap verschafft Crawlbots einen Überblick über die Inhalte deiner Website und führt diese gezielt dorthin, damit jede URL auf deiner Domain schnellstmöglich gecrawlt werden kann. Vor vielen Jahren waren Sitemaps auch im Frontend gang und gäbe, mittlerweile existieren sie jedoch fast nur noch als spezielle XML-Dateien für Suchroboter.
Es ist ratsam, automatisierte Sitemaps einzurichten und diese in der Google Search Console einzureichen. Das ermöglicht es Google, neue Inhalte schneller zu crawlen und gibt dir außerdem Zugriff auf wichtige Diagnosedaten.
Viele CMS erstellen Sitemaps automatisch. Für WordPress ist dafür ein Plugin nötig. Ich empfehle Yoast SEO (die Gratisversion reicht für die meisten Belange absolut aus).
Responsiveness & Barrierefreiheit
Deine Website sollte sich auf jede Bildschirmgröße einstellen, Inhalte gut sichtbar präsentieren und vollständig ohne Einschränkungen bedienbar sein – egal ob mit Maus oder Touchscreen. Dabei hat sich als Best Practice der Ansatz „mobile first“ erwiesen. Hier wird eine Website zunächst für Mobiltelefone entworfen und darauf basierend eine Desktopversion erschaffen. Dies spiegelt auch das veränderte Nutzerverhalten wider, denn heutzutage kommen die meisten Nutzer über das Handy auf deine Website.
Eng verknüpft mit der Responsiveness ist der Punkt Barrierefreiheit. Dieser bekommt in den Augen von Google immer höhere Priorität. Es sollte sichergestellt sein, dass auch Menschen mit körperlichen Einschränkungen deine Website auf jedem Endgerät problemlos navigieren können. Das kann etwa durch das Design, aber auch über bestimmte strukturierte Daten sichergestellt werden.
Canonicals & Hreflang-Verlinkungen
Über das Canonical-Attribut kannst du Google mitteilen, dass eine URL als sogenannte kanonische URL bei der Indexierung berücksichtigt werden sollte, wenn es mehrere Seiten mit ähnlichem Inhalt gibt oder Inhalte mitsamt von Parametern verlinkt werden. Andere Seiten, die auf die kanonische Seite verweisen, werden als „Varianten“ nicht bei der Indexierung berücksichtigt, stattdessen wird nur die Canonical-URL in den Index aufgenommen.
Es hat sich als Best Practice erwiesen, dass eine URL im Zweifelsfall auf sich selbst als Canonical zeigt, allein schon, um duplicate content durch Versionen mit unterschiedlichen URL-Parametern zu vermeiden.
Canonicals können jedoch auch bewusst auf andere URLs gesetzt werden, was allerdings im Einzelfall entschieden werden sollte. Wichtig ist, keine widersprüchlichen Signale hinsichtlich der Indexierbarkeit zu senden.
Eng verwandt mit Canonicals sind hreflang-Verlinkungen. Diese weisen Google auf äquivalente URLs in anderen Sprachen hin. Die URLs müssen dabei nicht zwingend auf derselben Domain liegen, etwa wenn für unterschiedliche Länder eigene Top-Level-Domains genutzt werden. Hreflang ist de facto nur für Websites mit mehreren Sprachversionen relevant, hier jedoch sehr wichtig, um Google die korrekten Signale für die Bewertung und Indexierung zu senden und die Einstufung als duplicate Content zu vermeiden.
Manuelle Maßnahmen & Sicherheitsprobleme in der GSC
In der Google Search Console wird dir angezeigt, ob manuelle Maßnahmen oder Sicherheitsprobleme bei deiner Website identifiziert wurden.
Manuelle Maßnahmen sind oft das Schlimmste, was dir als Verantwortlicher einer Website passieren kann. Diese werden von Google eingesetzt, um Verstöße gegen die Richtlinien zu bestrafen. Im schlimmsten Fall kann im Rahmen eine manuelle Maßnahme deine gesamte Domain aus dem Index verbannt werden! Und zwar so lange, bis du die Gründe für die manuelle Maßnahmen behoben hast.
Eine manuelle Maßnahme bedeutet praktisch immer Alarmstufe Rot und bedarf einer schnellen und professionellen Reaktion. Hier solltest du dir unbedingt Unterstützung suchen. Ich packe es in der Liste nur so weit nach unten, weil es in der Regel selten auftritt. Verstöße gegen die Richtlinien von Google treten fast nie zufällig auf, sondern sind fast immer das Ergebnis von intendierten Maßnahmen, um die Sichtbarkeit der Website mit zweifelhaften Mitteln zu boosten.
Sicherheitsprobleme sind nicht so gravierend, sollten aber ebenfalls schnellstmöglich behoben werden. Oftmals liegen die Probleme hier in einer inkorrekten oder inkompletten Sicherung über SSL.
Web Vitals & Pagespeed
Obwohl Pagespeed sich in den Köpfen vieler Menschen als wichtiger Rankingfaktor etabliert hat, ist die Bedeutung dieses Aspekts für die Suchmaschine viel niedriger, als gemeinhin angenommen wird. Es gilt mittlerweile als so gut wie erwiesen, dass Pagespeed nur einen sehr kleinen Einfluss auf die Rankings hat und dies möglicherweise auch nur indirekt über User Signals, da lange Ladezeiten deutlich häufiger zu Absprüngen führen.
Dies bedeutet nicht, dass Pagespeed nicht trotzdem insgesamt wichtig ist, denn du möchtest deinen Besuchern schließlich eine schnelle Website präsentieren.
Verwandt damit sind die sogenannten Core Web Vitals, die von Google als wichtige Kennzahlen für die technische Bemessung einer Website herangezogen werden. In der Google Search Console kannst du dir tatsächlich gemessene Werte von realen Usern anschauen. Allerdings gibt es diese erst ab einer bestimmten Anzahl von Besuchern. In jedem Fall kannst du Pagespeed Insights zurate ziehen, um einen guten Eindruck über den Stand deiner Web Vitals zu bekommen. Eine Verbesserung dieser ist in der Regel aber nur mit einigem technischen Know-how möglich.
On-Page-Audit
Im On-Page-Audit werden alle inhaltlichen Faktoren deiner Website unter die Lupe genommen. Wie werden Informationen strukturiert? Wie hochwertig und suchmaschinenoptimiert sind Inhalte geschrieben?
Benötigte Tools: Screaming Frog, On-Page-Check-Funktion der allermeisten SEO-Tools (ich empfehle Seobility)
URL-, Navigations- & Informationsstruktur
Einer der wichtigsten und gleichzeitig komplexesten Checks bei einem On-Page-Audit umfasst eine Analyse der gesamten Struktur der Website. Wie stehen URLs in Relation zueinander? Sind Informationen strukturiert etwa in Silostrukturen? Und spiegeln sich diese Strukturen in den URLs und anderen Elementen wie Breadcrumbs wider?
Dazu solltest du auch unbedingt andere SEO-Aspekte wie die Ergebnisse einer Keyword-Recherche hinzuziehen. Lassen sich Inhalte besser gemäß dem Suchverhalten von Usern aufteilen? Dies erlaubt eine deutlich präzisere Optimierung einzelner Pages.
Besonders im E-Commerce ist dieser Schritt bei großen Sortimenten enorm komplex. Änderungen sollten außerdem nur mit Bedacht durchgeführt werden, auf URL-Ebene hingegen komplett vermieden werden, außer, es gibt keine andere Möglichkeit.
Ganz ehrlich: Es ist unglaublich schwer, diesen Punkt sinnvoll zusammenzufassen. Es spielen so viele Faktoren mit hinein, dass ich der Meinung bin, dass nur ein Profi das wirklich im Einzelfall bewerten kann.
Metadaten
Jede (für die Indexierung vorgesehene) URL deiner Website sollte einen Metatitle und eine Metadescription haben. Diese werden von Google bevorzugt für die Darstellung in den Suchergebnissen herangezogen und stellen sehr wichtige Stellschrauben für Rankings und Click-Through-Rate (CTR) dar.
Änderungen auf der Ebene der Metatitle alleine können starke Ranking-Verbesserungen in kurzer Zeit zur Folge haben und sind damit ein beliebtes Mittel für Quickwins.
Grundsätzlich sollte deine Metadaten das Hauptkeyword beinhalten, auf das du bei der jeweiligen URL optimierst.
Die sogenannten Metakeywords werden übrigens schon lange nicht mehr von Google beachtet, du kannst sie also komplett ignorieren.
Bilder
Bilder können jeden Content aufwerten, allerdings sollten sie gewissen Standards entsprechen. Beispielsweise sollten sie von der Dateigröße her möglichst klein sein, responsiv sein und immer ein sogenanntes Alt-Attribut aufweisen, was für die Barrierefreiheit wichtig ist und gleichzeitig als Rankingfaktor identifiziert wurde. Idealerweise beschreiben Alt-Attribute deine Bilder und beinhalten gleichzeitig Keywords.
Content (Qualität)
Texte bilden den Kerninhalt der meisten URLs. Es ist der „eigentliche“ Inhalt der Website, über den du beispielsweise über Themen informierst oder Produkte bzw. Dienstleistungen versuchst zu verkaufen.
Die Qualität der Inhalte ist dabei heutzutage sehr wichtig. Ranking-Gewinne über Keyword-Stuffing oder ähnliche Tricks sind in den allermeisten Fällen zum Scheitern verurteilt. In diesem Aspekt nimmt SEO immer mehr die Rolle eines kritischen Users ein, was auch das Ziel der Suchmaschinen selbst ist. Texte sollten immer für den Menschen geschrieben sein und einen echten Mehrwert bieten.
Duplicate Content & Keyword-Kannibalismus
URLs auf deiner Website sollten immer einzigartig sein, also einzigartigen Content und Mehrwert liefern. Ist der Inhalt von zwei verschiedenen URLs gleich oder fast gleich, werden sie von Google als Duplicate Content gewertet. Das gilt auch für URLs auf unterschiedlichen Domains. Daher ist es eine sehr schlechte Idee, Content von anderen Domains stumpf zu kopieren, davon abgesehen, dass du gegen das Urheberrecht verstößt.
Google weist dabei darauf hin, dass die Formulierung allein eine Page nicht einzigartig macht, sondern der wirkliche Inhalt bzw. der Mehrwert bei dieser Bewertung mit einbezogen wird. Hast du zwei URLs auf deiner Website, die im Prinzip den exakt gleichen Inhalt haben, kann es sinnvoll sein, diese zusammenzulegen oder eine davon als Canonical auszuwählen.
Abzugrenzen vom Duplicate Content ist der sogenannte Keyword-Kannibalismus. Hier konkurrieren zwei einzigartige URLs auf derselben Domain um das gleiche Keyword. Das kann Google Schwierigkeiten bereiten bei der Auswahl der relevantesten URL und beide URLs abwerten. Sie graben sich damit gegenseitig das Wasser ab.
Es ist in der Regel am besten, pro Keyword eine einzige URL zu optimieren. Die Strukturierung von Inhalten nach Keywords bzw. Keyword-Clustern ist nicht trivial und zeichnet die Arbeit von Profis aus. Ich gebe dir in meinem Info-Artikel zur Keyword-Recherche jedoch gerne einige wichtige Tipps.
Broken Links
Links, egal ob intern oder extern, sollten immer ein funktionierendes Linkziel haben. Linkziele, die nicht funktionieren, solltest du daher entfernen oder austauschen.
Strukturierte Daten
Strukturierte Daten helfen Google und andere Suchmaschinen dabei, Informationen mit bestimmten Inhalten wie Produkten zu verknüpfen. Dabei hat sich ein Standard durchgesetzt, der über die Organisation schema.org verwaltet wird.
Strukturierte Daten werden nicht nur auf Produkt-Ebene benutzt, sondern auch auf der Ebene von Websites oder sogar einzelnen Website-Elementen. Du kannst beispielsweise eine Website als Kontaktseite oder FAQ-Seite auszeichnen, was Google dabei hilft, diese besser einzuordnen.
Die richtige und sinnvolle Einbindung von strukturierten Daten wird dabei immer wichtiger.
Conversion-Optimierung
Holistisches SEO, was dein wirtschaftliches Wohlergehen mehr als sterile KPIs wie Sichtbarkeit oder Traffic zum Ziel hat, beinhaltet auch immer die Conversion-Optimierung von Inhalten. Im Rahmen eines SEO Audits sollte daher geschaut werden, welche Verbesserungen angeregt werden können, um mehr Menschen zur Kontaktanfrage bzw. zum Kauf zu animieren.
Tipps zum Optimieren der Conversion-Rate findest du im verlinkten Artikel.
Off-Page-Audit
Ein Off-Page-Audit hat das Ziel, qualitative und quantitative Aussagen über dein Backlink-Profil zu treffen. Dein Backlink-Profil ist die Gesamtheit aller eingehenden Links von anderen Domains, die deine Website erhält.
Von Interesse sind dabei sowohl positive als auch negative bzw. sogenannte toxische Links, wobei toxischen Links heutzutage immer weniger Priorität eingeräumt wird, da diese von Google zumeist einfach automatisch herausgefiltert werden.
Ein toxisches Linkprofil kann dennoch problematisch sein, etwa wenn du über sehr viele gekaufte Backlinks verfügst, die gegen die Richtlinien von Google verstoßen. Dies kann eine manuelle Maßnahme zur Folge haben, was im schlimmsten Fall die Deindexierung der Domain zur Folge haben kann. Solche Links treten jedoch nie „zufällig“ auf, sondern müssten zuvor von dir oder einem von dir beauftragten Dienstleister geordert worden sein.
Andersherum kann es wertvoll sein, positive Backlinks zu analysieren um zu sehen, in welchen Bereichen noch mehr Potenzial für hilfreiche Backlinks existiert.
Meiner Meinung nach ist ein Off-Page-Audit für die meisten Website-Betreiber nicht notwendig, nur für sehr große Unternehmen und Websites halte ich es im Regelfall für sinnvoll. Offpage-SEO an sich ist jedoch immer noch sehr relevant und wichtig. Aber insbesondere dann, wenn bis dato noch keine Backlinks aktiv aufgebaut wurden, ist ein Audit nicht von höchster Priorität. Du kannst dies also zunächst auf die Wartebank packen.
Hinzu kommt, dass die besten Tools für Backlink-Analyse, Ahrefs und Link Research Tools, vergleichsweise teuer sind. Die Backlink-Analyse-Tools der meisten anderen gängigen Anbieter sind im Vergleich dazu von zumeist eher bescheidener Qualität.
Local SEO Audit
Bietest du eine Dienstleistung (bevorzugt) in einem lokal eingegrenzten Bereich an oder hast du ein physisches Ladengeschäft, sollte unbedingt auch ein Local SEO Audit durchgeführt werden. Wichtigster Aspekt hierfür ist dein Google Unternehmensprofil, welches möglichst schön ausgeschmückt sein sollte, dein Unternehmen und deine Dienstleistungen bzw. Produkte ins rechte Licht rückt und außerdem alle wichtigen Informationen wie etwa zu den Öffnungszeiten enthält.
Darüber hinaus sollte ein NAP-Check durchgeführt werden, um sicherzustellen, dass deine wichtigsten Daten (Name, Adresse, Telefonnummer) auf deiner eigenen Website, deinem Unternehmensprofil und in digitalen Branchenverzeichnissen überall exakt gleich erscheinen.
Deine Checkliste für den SEO Audit
Ich habe für dich eine Checkliste erstellt, nach der du deinen eigenen SEO Audit durchführen kannst: