Strategie SEO dla aplikacji JavaScript

Kiedy tworzymy stronę internetową, często używamy JavaScript, ponieważ jest idealny do tworzenia innowacyjnych stron internetowych z wieloma funkcjonalnościami po stronie klienta. Jedną z najczęściej używanych technologii jest AJAX.
Przez frameworki Co Jquery, prototyp, Mootools i inne, które umożliwiają wysyłanie żądań do serwera, odbieranie wyniku i aktywację ładowania określonych treści na stronie bez odświeżania sieci i całkowicie przejrzyste dla użytkownika.
Obecnie większość stron internetowych wykazuje silną zależność od JavaScript w tworzeniu efektów i funkcjonalności po stronie klienta, co niesie ze sobą dobrze znane zagrożenia w zakresie SEO, problemów z linkami lub niezgodnościami, awariami technicznymi, szybkością pobierania itp.
Zobaczymy w tym samouczku niektóre strategie tworzenia stron i aplikacji AJAX unikanie problemów w branży SEO.

Zalety i wady korzystania z AJAX


Zalety pod względem doświadczenia użytkownika są oczywiste: szybkie strony, mniejsze obciążenie serwera, który przetwarza tylko zamówienie i zwraca treść niezbędną dla użytkownika. Wiele funkcji internetowych nowej generacji nie jest łatwych do wykonania bez użycia JavaScript lub Jquery, ponieważ zapewnia to, że użytkownik musi kliknąć element sieci, a przeglądarka nie aktualizuje całej strony, ale tylko blok treści, a nawet wyświetlać różne informacje dla różnych użytkowników.
Minusem jest to, że zwrócona treść może nie być widoczna dla wyszukiwarek, a bot często nie analizuje kodu Jquery lub Ajax. Jednym z problemów jest to, że zawartość strony jest widoczna tylko dla przeglądarki, ale nie na serwerze, sposób śledzenia robotów może sprawić, że nie zobaczą jakiejś treści lub że niektóre linki zawodzą, ponieważ robot nie może zrozumieć JavaScript, który jest bardzo złożony .
Google nieustannie rozwijał możliwości swoich robotów w zakresie indeksowania Ajax i Javascript, podczas gdy Bing i Yahoo nie rozwinęły się zbytnio.
Nawet wyszukiwarki nie są w stanie dokładnie przedstawić najtrafniejszej treści dla zapytania, więc nadużywanie tej technologii może prowadzić do złego pozycjonowania w wynikach wyszukiwania.

Przykłady elementów i bloków html poprawiających SEO


Jeśli potrzebujemy stworzyć blok, zastosujmy do klas nazwy semantyczne, czyli z sensem opisującym treść:
Przykład bloku, który pokazuje pewną zawartość
Lepiej byłoby nadać bardziej semantyczny sens każdemu blokowi kodu html, aby roboty mogły zrozumieć, jakie treści będą wyświetlać:
Struktura jest łatwa do prześledzenia, nawet jeśli treść nie została wygenerowana w kodzie HTML. Ponieważ znaczniki semantyczne zawierają słowa kluczowe, ważne jest, aby używać odpowiednich znaczników HTML dla treści, w razie wątpliwości możemy zapoznać się z podręcznikiem W3school Html.
Podobnie jak w przypadku list uporządkowanych lub nieuporządkowanych, jednym z celów list definicji jest wyświetlenie listy docelowych treści, tak jak w powyższym przypadku, mogą to być wiadomości lub lista produktów. Pozwala to na większą gęstość słów kluczowych, mniej bałaganu w kodzie.
Jednym z najważniejszych aspektów jest to, że treść, którą Javascript generuje dla użytkownika, jest dokładnie taka sama, jak ta pokazywana wyszukiwarkom lub robotom wyszukiwarek.
Google wskazuje jako możliwe rozwiązanie, że jeśli nasza witryna zawiera technologie, do których wyszukiwarki nie mogą uzyskać dostępu lub których nie mogą zinterpretować, takie jak JavaScript lub Ajax, to musimy użyć tekstu opisowego lub zakładek, aby te elementy mogły pokazywać, jaka treść będzie odpowiadać. w ten sposób poprawić dostępność witryny. Wielu użytkowników korzysta z urządzeń mobilnych, niestandardowych przeglądarek, przestarzałego oprogramowania i wolnych połączeń, przez co mogą mieć problemy z przeglądaniem treści lub korzystaniem z niektórych funkcji.

Linki i parametry według adresu URL


Google woli używać haszysz jako parametr w adresie URL, ponieważ w ten sposób łatwiej będzie Ci zinterpretować swoje linki, gdy jako parametr przekażemy hastabang do witryny.
Szeroko stosowanym przykładem jest strona internetowa Twitter. Google używa go do przechowywania i żądania zawartości tej strony statycznej. Aby pokazać, co zawierają przepisane adresy URL, oto kilka przykładów:
Ten adres URL wygenerowany przez jakieś zapytanie jest lepszy i bardziej semantyczny SEO
www.miweb.com/#!madrid/productos
Te dwa adresy URL są trudniejsze do zrozumienia dla robotów, ale bez wątpienia ostatni poprawia nieco semantykę.
www, miweb, com /?tmp = madryt / produkty
www.miweb.com/?ciudad=madrid&seccion=productos
Tak długo, jak możemy to zrobić Semantyczne SEO do generowanych treści i pokazywać te same treści, które użytkownik widziałby w wyszukiwarkach, to nie jest duży problem.

Wysuwane paski nawigacyjne i zakładki


W przypadku dystrybucji treści w zakładkach, gdzie treść zmienia się za pomocą jquery lub innego frameworka w zależności od zakładki, w której się pozycjonujemy, musi istnieć niezależny adres URL dla każdej zakładki, gdy użytkownik kliknie na zakładkę, żądanie może również do serwera w celu wygenerowania zupełnie nowej zawartości. Struktura każdego linku może wyglądać mniej więcej tak:
www.miweb.com?tab=sprzedaż
www.miwebe.com/?tab=clientes
www.miweb.com/?tab=productos
Sztuczka z zakładkami jest tworzona za pomocą CSS i JavaScript, serwer zwraca zawartość wszystkich zakładek z pierwszym żądaniem strony. Kiedy użytkownik kliknie na kartę, klasy zdefiniowane w CSS sprawiają, że przeglądarka ukrywa zawartość powiązaną z kartą i pokazuje tylko zawartość powiązaną z klikniętą kartą, podczas gdy inne są ukryte, ale są w kodzie jest to dozwolone , więc dobrze jest nadać strukturze sens semantyczny.
Bardzo ważne jest również, aby nie zezwalać na indeksowanie plików JavaScript lub CSS w pliku robots.txt naszej witryny, ponieważ może to zaszkodzić pozycjonowaniu i indeksowaniu treści i może spowodować niepowodzenie statystyk indeksowania.
Jedna z wytycznych Webmaster Google Mówi w szczególności, aby nie zezwalać na śledzenie tych plików, ale nie należy ich blokować ani ukrywać przed botami.

Narzędzia Google dla webmasterów do weryfikacji i analizy indeksowania


Narzędzia Google dla webmasterów daje nam możliwość poinformowania Google, poprzez weryfikację własności naszej strony internetowej. Zaloguj się za pomocą swojego konta Google lub Gmail, a następnie możemy zweryfikować naszą witrynę.

Po zweryfikowaniu nieruchomości, sitemap.xml rozpocząć indeksowanie witryny, a następnie Google rozpocznie indeksowanie Twoich adresów URL.
Robot potrzebuje około dwóch tygodni, zanim linki pojawią się poprawnie w wyszukiwarce Google.
Nie ma łatwego sposobu, aby upewnić się, że wszystko działa, ale istnieją narzędzia, które pomogą Ci zobaczyć, co się dzieje. Najlepiej użyć narzędzia Przeglądaj jako Googlebota, które pokazuje nam dokładnie, co widzi Google podczas indeksowania witryny. Dostęp do Narzędzi Google dla webmasterów można uzyskać w Diagnostyce.
Korzystając z narzędzi Google dla Narzędzi dla webmasterów, możemy sprawdzić zaindeksowane linki i poprawić lub wyeliminować te linki, aby Twoja witryna była zoptymalizowana pod kątem wyszukiwarek i zawierała linki bez niebezpieczeństwa kary, które pomagają między innymi poprawić SEO.Podobał Ci się i pomógł ten samouczek?Możesz nagrodzić autora, naciskając ten przycisk, aby dać mu pozytywny punkt
wave wave wave wave wave