久久成人免费-久久成人激情视频-久久成年人视频-久久成年片色大黄全免费网站-亚洲人成网址在线观看-亚洲人成网址

 
深圳網站優化排名

將想法與焦點和您一起共享

深圳網站建設設計 深圳網站優化排名 深圳網站設計制作欣賞

2016年的排名真正是什么

2016-11-20  閱讀: 深圳網站建設設計

2016年的排名真正是什么?

排名是一件有趣的事情,真的,已經有一段時間了。 我自己,是平均排名的想法耐當谷歌網站管理員工具/搜索控制臺滾出來,但平均排名實際上使比我們看看排名標準工具很多更有意義。 讓我解釋一下。

基于在現實世界中實際不存在的情況,SEO工具拉取排名。 抓取Google的機器應該是干凈的,否則是不可知的,除非您明確指定位置。 實際上,這些工具旨在了解用戶首次搜索時沒有Google上下文或歷史記錄的排名。 排名軟件模擬了第一次登錄網絡的用戶,他們認為要做的第一件事是搜索“4ft釣魚桿”。然后,他們不斷地搜索一系列其他相關和/或不相關的查詢實際上點擊結果。 授予。 一些軟件可以做其他的事情來嘗試和模擬那個用戶,但無論哪種方式,他們收集的數據不一定反映真實用戶看到的。 最后,由于這么多人經常跟蹤許多相同的關鍵字,你不得不想知道這些工具在多大程度上增加了搜索量。

底線是我們忽略真正的用戶上下文,特別是在移動領域。

2016年的排名真正是什么

排名的工具,讓您跟蹤移動的排名通常是讓你定義一個上下文或者他們會簡單地指定“手機”作為一個選項。 辛迪克魯姆的研究表明該SERP的功能和排名將根據用戶代理的組合不同,手機品牌和型號,瀏覽器,甚至手機上的內容。

 

排名工具也忽略了用戶的選擇現實。 我們在那里只是構成的SERP這么多元素的時代, 即#1,根本就不是#1 。 在某些情況下,#1是網頁上的第8個選項,遠低于首屏。

對于具有4廣告位的AdWords ,有機被推遠低于折,用戶不被肯定有機和付費,是#1機之間的區別并不意味著它曾經的。 所以,當我們看看排名報告告訴我們我們是第一,我們經常迷惑自己,什么結果將驅動。 當我們向客戶報告時,我們不會專注于可操作性或用戶上下文。 相反,我們完全專注于虛榮。
當然,排名不是一個商業目標; 他們是一個潛力或機會的度量。 不管我們多么討論他們不應該成為主要的KPI,排名仍然是SEO所指出的,以顯示他們正在移動。 因此,我們應該考慮將有機排名考慮為相對于它們周圍的SERP特征。

換句話說,我希望看到的排名包括了標準的有機1-10的排名,以及關于付費,本地包的絕對位置,并精選片段。 其他任何事情都忽略了用戶絕大多數可用的選擇的影響。

最近,我們已經看到了一些升級,以使用此效果萬盎司做出一個大的變化,以他們是如何浮出水面排名的特點 ,我知道了一些其他的工具凸顯了有機功能,以及。 誰將是第一個強調綜合搜索上下文的人? 畢竟,許多用戶不知道差別。

2016年偽裝的是什么?
偽裝被官方定義為顯示搜索引擎與用戶不同的東西。 當Google允許自適應和響應式網站和抓取無頭和基于文本時,意味著什么? 當Googlebot遵守304個響應代碼時,意味著什么?

2016年的排名真正是什么

在自適應和響應模型下,通常情況下,為不同的上下文顯示更多或更少的內容。 這是響應性很少,因為它的意思是通過定義重新定位和調整內容大小,但是一些實現可能會減少內容組件,使查看上下文工作。

在網站通過更改顯示的內容來響應屏幕分辨率,并且Googlebot顯示的分辨率之外顯示更多內容的情況下,他們如何區分隱藏真實內容?

類似地,304響應代碼的方式是向客戶端指示內容自從它上次訪問以來沒有被修改; 因此,沒有理由再次下載。

Googlebot遵守此響應代碼,避免成為帶寬限制。 那么,什么是阻止網站管理員從一個版本的頁面索引,更改它,然后返回304?

我不知道在這一點上對這些問題有確定的答案。 然而,根據我在野外看到的,這些已被證明是技術SEO的機會,仍然致力于測試和學習。
爬行

作為SEO必須檢查的基本組成部分的內容的可訪問性沒有改變。 有所改變的是,需要進入它的分析工作的類型。 它的成立,谷歌的抓取能力已經大大提高,人們喜歡埃里克武都做像實驗浮出水面的這些能力顆粒狀細節偉大的工作JSCrawlability.com

2016年的排名真正是什么

同樣,我想嘗試一次實驗,了解Googlebot在加載網頁后的行為。 使用LuckyOrange ,我試圖捕捉到的Googlebot的視頻,一旦它到達的頁面:

我在一個尚未建立索引的頁面上安裝了LuckyOrange腳本,并將其設置為只有在用戶代理包含“googlebot”時才觸發。設置完成后,我調用了Fetch并從Search Console中呈現。 我希望看到鼠標滾動或嘗試填充表單。 相反,光標從未移動,Googlebot僅在頁面上幾秒鐘。 后來,我看到了Googlebot對該網址的另一次點擊,然后該網頁不久后出現在索引中。 沒有在LuckyOrange的第二次訪問的記錄。

雖然我想在更大的網站上做更多的測試來驗證這個發現,我從這個軼事的經驗的假設是,Googlebot將來到網站,并確定是否頁面/網站需要使用無頭爬行器。 基于此,他們將使用正確的抓取工具返回到該網站。

我鼓勵你嘗試一下。 你不必使用LuckyOrange - 你可以使用HotJar或任何其他類似的東西 - 但這里是我的代碼LuckyOrange:

  jQuery(function(){
     Window .__ lo_site_id = XXXX;
     if(navigator.userAgent.toLowerCase()。indexOf('googlebot')>)
     {
         var wa = document.createElement('script');
         wa.type ='text / javascript';
         wa.async = true;
         wa.src =('https'== document.location.protocol?' https:// ssl ':' http:// cdn ')+'.luckyorange.com / w.js';
         var s = document.getElementByTagName('script')[0];
         s.parentNode.insertBefore(wa,s);
         //用Googlebot標記
         window._loq = window._low ||  [];
         window._loq .push([“tag”,“Googlebot”]);
     }}
 ));

然而,故事的道德是,谷歌看到的,他們看到它的頻率等仍然是我們需要回答作為SEO的主要問題。 雖然它不是性感的,日志文件分析是一個絕對必要的練習,特別是對于大型SEO項目 - 可能現在比以往任何時候,由于網站的復雜性。 我會鼓勵你聽一切馬歇爾西蒙茲一般說, 尤其是在這個問題上 。

使用這個工具注意到它是如何容易地處理百萬的記錄,我希望是一個跡象表明,它們的蜘蛛工具。 不管是誰創造的工具,它幫助你解鎖的洞察是非常有價值的,在實際發生的事情。
我們去年有一個客戶堅持認為他們在有機的損失不是企鵝更新的結果。 他們認為,這可能是由于關閉了其他可能促成搜索量,或者季節性因素或其他因素的傳統和數字廣告系列。 拉取日志文件,我能夠從所有的廣告系列運行時分層顯示所有數據,并顯示這些都不是這些事情; 相反,Googlebot活動在企鵝更新之后立即下降,同時也是他們的隨機搜索流量。 日志文件使它顯而易見。
 
它遵循常規的Googlebot基于具有指向它們的鏈接的最高質量和/或數量的頁面抓取的SEO智慧。 在為最新客戶分配社交共享,鏈接和Googlebot訪問次數方面,我們發現社交共享和抓取活動之間的關聯性比鏈接更多。 在下面的數據中,具有最多鏈接的網站部分實際上最少被抓取!
 
這些是重要的見解,你可能只是在猜測,沒有花時間挖掘你的日志文件。
日志文件如何幫助您理解AngularJS
與任何其他網頁或應用程序一樣,每個請求都會在日志中生成記錄。 但是,根據服務器的設置方式,有關AngularJS設置的很多教訓,特別是如果你使用一種快照技術進行預渲染。
對于我們的一個客戶,我們發現,快照系統需要刷新其緩存時,時間過長和超時。 Googlebot將這些錯誤理解為5XX錯誤。
 
這種行為導致這些頁面落在索引之外,隨著時間的推移,頁面在排名非常高和消失之間來回跳躍,或者站點上的另一個頁面占據其位置。
 
此外,我們發現有很多實例,其中Googlebot被誤認為是人類用戶。 反過來,Googlebot提供了AngularJS的實際網頁,而不是HTML快照。 但是,盡管Googlebot沒有看到這些網頁的HTML快照,但這些網頁仍然在索引中,排名也很好。 因此,我們最終與客戶端進行測試,以便在網站的某些部分刪除快照系統,并且有機搜索流量實際上有所提高。
這與Google在AJAX抓取計劃的棄用公告中所說的內容是一致的。 它們能夠訪問使用JavaScript呈現的內容,并將索引在加載時顯示的任何內容。
 
這不是說HTML快照系統不值得使用。 預先呈現的網頁的Googlebot行為是,它們更容易被更快速,更頻繁地抓取。 我最好的猜測是,這是由于爬行計算成本較低,他們執行。 總而言之,我認為使用HTML快照仍然是最佳做法,但絕對不是Google看到這些類型的網站的唯一方式。
據谷歌 ,你不應該成為快照只是他們,但對速度的增強用戶獲得為好。
一般來說,網站不應只為Google預先呈現網頁,我們希望您可以預先呈現網頁,以便為使用者帶來效益,并遵守漸進增強指南。 如果您預先呈現網頁,請確保提供給Googlebot的內容與用戶的體驗(包括外觀及其互動方式)相匹配。 向Googlebot投放與正常用戶不同的內容被視為隱藏真實內容,這將違反我們的網站站長指南。
這些是高度技術性的決定,對有機搜索的可見性有直接影響。 根據我在訪談SEO的經驗,在去年加入我們的iPullRank團隊,他們很少了解這些概念或能夠診斷HTML快照的問題。 這些問題現在很普遍,只有在這些技術繼續得到采用的情況下才會繼續增長。
然而,如果我們要向用戶提供快照,它提出了一個問題:為什么我們首先使用框架? 當然,技術堆棧的決定是那些超出僅僅SEO的范圍,但你可能會認為不需要這樣的器具,像一個框架MeteorJS 。
 
或者,如果你肯定要堅持使用Angular,請考慮Angular 2,它支持新的Angular Universal。 Angular通用服務“同構”JavaScript,這是另一種方式說,它預先呈現其內容在服務器端。
 
Angular 2對Angular 1.x有很多改進,但我會讓這些Google員工告訴你們。
之前的所有瘋狂的框架飼養他們的困惑頭, 谷歌已經有一種思路有關新興技術-這是在地平線上了許多新的物聯網設備,我們應該建立網站的服務內容以最低的“漸進增強”。功能的共同點,并為可以渲染它們的設備節省了鐘聲和哨聲。
如果你從頭開始,一個好的方法是使用HTML構建你的網站的結構和導航。 然后,一旦您擁有網站的網頁,鏈接和內容,您就可以使用AJAX調整外觀和界面。 Googlebot會很高興看到HTML,而擁有現代瀏覽器的用戶可以享受您的AJAX獎金。
換句話說,確保每個人都可以訪問您的內容。 大喊答題節目環節以菲力魏澤提醒我這一點。
刮擦是SEO分析的根本缺陷核心
刮擦是我們的SEO工具的一切基礎。 cURL是用于制作和處理HTTP請求的庫。 最流行的編程語言具有對庫的綁定,因此,大多數SEO工具利用庫或類似于下載網頁的東西。
想想cURL的工作方式類似于從FTP下載單個文件; 在網頁方面,這并不意味著該網頁可以完整地查看,因為您沒有下載所有必需的文件。
 
這是大多數SEO軟件的根本缺陷,因為同樣的原因View Source不是一個有價值的方式來查看頁面的代碼了。 由于在加載時發生了大量的JavaScript和/或CSS轉換,而Google正在使用無頭瀏覽器進行抓取,因此您需要查看代碼的Inspect(元素)視圖,以了解Google可以實際看到的內容。
這是無頭瀏覽發揮作用的地方。
一個比較流行的無頭的瀏覽庫是PhantomJS 。 SEO世界之外的許多工具都是使用這個庫來編寫的,用于瀏覽器自動化。 Netflix公司甚至有一個用于刮截屏被稱為手繪 。 PhantomJS是由稱為渲染引擎內置QtWebKit的 ,這就是說它是從同一代碼的Safari(和Chrome谷歌之前叉入叉閃爍 )的基礎上的。 雖然PhantomJS缺少最新瀏覽器的功能,它有足夠的功能來支持大多數我們需要的東西SEO分析。
 
正如你可以看到從GitHub的信息庫 ,HTML快照軟件如Prerender.io使用這個庫,以及編寫。
PhantomJS有一系列的包裝庫,使它很容易在各種不同的語言中使用。 對于那些有興趣使用它的NodeJS,請HorsemanJS 。
 
對于那些你認為比較熟悉PHP,看看PHP PhantomJS 。
 
無頭瀏覽器方面的最新和更好的合格性是無頭Chromium。 正如您可能已經猜到的,這是Chrome瀏覽器的無頭版本。 如果我是一個賭博的人,我會說我們在這里看到的是一種某種噸位的谷歌機器人。
 
為此,這可能是SEO公司在未來重新思考自己的爬行基礎架構時應該考慮的事情,如果只是為了一個高級別的用戶。 如果您想了解有關無頭Chrome的更多信息,請查看Sami Kyostila和Alex Clarke(Google員工)在BlinkOn 6上所說的話:
使用瀏覽器中的抓取來做你的工具不能
雖然許多SEO工具不能檢查完全呈現的DOM,但這并不意味著你作為一個單獨的SEO,必須錯過。 即使沒有利用無頭瀏覽器,Chrome也可以變成一個只有一點點JavaScript的刮紙機。 我在我的“講到這在長度如何湊每一個網頁在網絡上 ”的帖子。 使用一點jQuery,你可以有效地選擇和打印從一個頁面到JavaScript控制臺的任何東西,然后導出到你喜歡的任何結構的文件。
通過這種方式,您可以跳過許多必要的編碼,使網站相信您是真正的用戶,例如身份驗證和cookie管理必須發生在服務器端。 當然,這種刮擦方式對于一次性而不是構建軟件是有好處的。
 
ArtooJS是由瀏覽器內拼搶和自動化在一系列的網頁刮并保存結果到一個文件作為JSON支持書簽。
 
這方面的一個功能更全面的解決方案是Chrome擴展, WebScraper.io 。 它不需要代碼,使整個過程點擊。

PS圖象軟件8種方式來處理網站速度
驚訝的emojis歷史

2016年的排名真正是什么

將文章分享到..