Google 由兩名在史丹福大學的博士生佩吉 (Larry Page) 和布林 (Sergey Brin) 開始。他們帶來了一個給網頁評估的新概念。這個概念, 稱網頁級別 (PageRank), 是從Google 演算法[1]重要的開端 。網頁級別十分倚賴導入鏈結 (incoming link) ,並利用這種每個導入某網頁的鏈結相當於給該網頁價值投一票的理論建立起邏輯系統。越多導入鏈結意味著該網頁越有「價值」。而每個導入鏈結本身價值直接根據該鏈結從何而來的網頁級別,以及相反的該頁導出鏈結 (outgoing link) 。
在網頁級別幫助下,Google 在服務相關的結果上證明它相當優異。Google 成為了最普遍和最成功的搜索引擎。由於網頁級別度量了站點外因子, Google 感到它會比頁內因子難以動手腳。
然而道高一呎魔高一丈。網站員們已經開發出對付Inktomi 搜索引擎的鏈結操作工具和計劃。這些方法證明對Google 演算法一樣管用。許多站集中於交換、買賣大量鏈接。隨著『網站員尋求獲取鏈結只單單要影響Google送更多流量給該站,而不管是否對站點訪客有用否』這種行為增加,網頁級別對原始演算法的信賴度漸漸被破壞了。
kaiser560 發表在 痞客邦 留言(0) 人氣()
一個有放廣告的網站,必須時常注意各個廣告收益的情況,並對廣告顯現頻率作出適當的調適。如果只有一兩個廣告,要知道哪一個廣告的收益比較好是很容易的。可是,如果你有 10 個、20 個、甚至更多個廣告的話,那要算出哪一個廣告該顯示比較多次才能帶來更多的收入就不是件容易的事,尤其是當不同廣告的價錢有不同的算法時。在這裡講的獲利,不是廣告的收益總額,而是平均廣告顯現一次能夠帶來多少收入。如果一個廣告總共顯現了 10 次,而帶來了 $100 的收益,那這很明顯地比一個要顯現 10,000 次才能帶來 $1,000 收益的廣告好很多。
知道每個廣告顯現一次可以有多少收入後,你就能夠依照這些資訊來盡量多顯示高收入的廣告,而減少低收入廣告顯現的次數 (當然,影響廣告收入還有其他許多因素,如廣告放的位置及廣告放的網站內容等等,不過那些考量在本文章的範圍外)。老貓在這裡跟大家討論一下如何算出哪個廣告獲利最高。
第一就是要先了解廣告費用的計算方式。基本上,這不外乎為以下三種:
kaiser560 發表在 痞客邦 留言(0) 人氣()
自己網站的流量,可以靠許多方式獲得蠻精準的資料,像是 Google Analytics。可是,別的網站,尤其是競爭者的網站,的流量是如何呢?這是個很難回答的問題,因為對手不會告訴妳他的流量,就像妳不會告訴對手妳的流量一樣。
那這樣怎麼辦呢?最好的方式,就是透過幾個第三者的流量調查來分析。以下是 9 個這一類的網站,依照流量調查方式、費用 (免費或收費)、以及有沒有涵蓋台灣市場的流量列出。
kaiser560 發表在 痞客邦 留言(0) 人氣()
對於搜尋引擎來說,網頁內容重複是一個很大的問題。您可能覺得這是跟抄襲有關,可是實際上並非如此。最嚴重的問題所在,是不同的網址實際上是指向完全一樣的內容。舉例來說,以下的幾個網址可能都是同一個網頁,可是對搜尋引擎來說,它們卻是不同的網頁:
http://www.example-site.tw
http://example-site.tw
kaiser560 發表在 痞客邦 留言(0) 人氣()
就以上的例子來說,如果那 5 個 nofollow 的連接不復存在於網頁 A 的話,那剩下的 5 個連接每一個就有可以獲得 2 分 Pagerank,而不再只是 1 分了。如果你以後想要有效控制網站內不同網頁的 Pagerank 值,最佳的做法就是好好考慮貴站的站內連接方式。老貓給站長的建議是,除非你的網站在許多地方現在已經在用 nofollow 來控制 Pagerank 的分配,那你沒有必要做任何改變。在 SEO 部落格中,唯一有被加上 nofollow 的站內連接是指向『隱私權政策』,所以 Google 的這個改變對本站來說可以說完全沒有影響。
不過,在歐美各地,現在談到 SEO 都是以能否在 Google 排名上有用為基準,鮮少有人在探討別的搜尋引擎。當然,這並不代表說那種做法對提升 Yahoo 或是 MSN (Bing) 的排名沒有幫助。如果這是真的,那麼那些堅持用 nofollow 來做 Pagerank 塑造有用的 SEO 就很丟臉了,因為這代表那樣做至少在這一年內對提升 Google 上的排名完全沒有作用。Matt Cutts 說 Google 用這種方式已經有一年的時間。
kaiser560 發表在 痞客邦 留言(0) 人氣()
kaiser560 發表在 痞客邦 留言(0) 人氣()
這個想法是雅虎的工程師提出的,目的是讓本來既有的 sitemap 協定更有效運用。雅虎將這個想法與其他搜尋引擎討論,並且獲得支持。網站管理者仍然可以透過舊有的推薦模式,主動在各搜尋引擎上提供搜尋引擎 sitemap 的位置。
對搜尋引擎而言,對比起從首頁進入尋找,Sitemap 可以讓搜尋引擎更有效簡易的紀錄、更新、收錄網站的頁面。雖然如此,沒有一個搜尋引擎準備放棄從首頁進行搜尋紀錄網頁的行為,Sitemap 的角色可以輔助讓搜尋更有效率。這個新的協定將 Robot.txt 跟 Sitemap 兩者更緊密的聯合起來,協助搜尋引擎收錄網站的頁面。Robot.txt 是一個純文字檔案,過去 Robot.txt 是負責告訴搜尋引擎不要收錄哪些頁面,而 Sitemap 則是個利用 XML 語言編寫的檔案,負責告訴搜尋引擎可以收錄哪些頁面,而且更可以告訴搜尋引擎更多關於每一頁的特性。Sitemap 可以說更進一步加強 Robot.txt 的功能。
kaiser560 發表在 痞客邦 留言(0) 人氣()