转载就一定会被降权吗?搜索引擎优化中,内容执掌网站命脉,因此能原创的原创,做不到原创的伪原创,甚至工具采集。然而姑且不论伪原创是否可以真正瞒天过海取得内容优化效果,文章转载与采集是否性质等同呢?大多人认为“转载”就是“采集”,而区别主要在于转载是人为行动,“采集”则更多的被定性为人为编制程序代码所为。殊不知,在搜索引擎优化过程中,搜索引擎潜规则对于两者的定性却截然不同,本文就此分析:
一:转载与采集的区别在哪里
互联网每天的新闻有多少是重复信息?包括百度新闻一样,相同的新闻同样会被搜索引擎高效收录,同时还会被列出省略多少条类似新闻源。因此,我们可以断定,搜索引擎在规则中或并不反对“文章转载”。而对于采集网站来说,大部分网站始终都徘徊于被K的边缘,风险重重。这其中是哪些因素决定了“转载”,与 “采集”的区别呢?二进制认为,文章适度转载或高效转载,有益于网站优化,因为网络本就是资源共享的平台,如若失去这一特性,也就不能称之为互联网了。而 “采集”,为什么会被定性为“垃圾”做法呢?原因便在于,“采集”程序是读不懂文章优劣度的,无分优劣好坏的采集,必然造就出一个又一个的垃圾站。在人为转载过程中,内容好坏立竿见影,做一个正规网站,没人会盲目的转载吧,否则做采集规则不是更好?因此,决定“转载”与“采集”的本质便在于是否有人为干预其中,搜索引擎所给予的权重自然理应不同。
二:如何促成有益于优化的转载
用A5站长网文章论例子,为什么有些文章会被人多达数百次,有些文章也仅有直指可数的次数呢?原因便在于内容的“质”,高质量的内容有益于搜索引擎优化。而若无择取的,盲目用“采集规则”,即使内容被转载后成功收录,网站得到权重仍然较低,取得不了多少流量效果。但适度转载为何有益于搜索引擎优化呢?用笔者关注的A5唐世军博客来说,每天转载A5站长网高品质软文,最后的结果便是达到百度、谷歌、秒收效果,甚至于在关键字上的表现仍旧良好。什么样的软文适合转载?蜘蛛并不识别文章质量是否优劣,我们进一步探讨:
A:信息即时性:即时性始终都是互联网信息传递的最大特点,互联网中的信息原创内容搜索引擎是给予高度的权重,但转载也未尝不是。而这个权重的分配便是按照转载次序来分辨的。个人认为,转载的时间越早,搜索引擎给予分配的权重越高。在此类推之下,转载速度效率越慢,其所见效果也是越小的,直到最后或出现“高度重复”内容,而被降权。
B:转载话题新鲜,反复的去转载老生常谈的话题,即使人看的不逆,搜索引擎看的都逆了。即使在原创收录上,反复出现过的话题在收录上也远不如新颖话题来的及时。因此我们可以判断,新颖的话题与内容,更有益搜索引擎优化。因此在每一天的文章转载中,新鲜话题总是成为最大的传送点。陈词滥调的话题,纵然不影响蜘蛛爬行,又会为你带去多少流量呢?不是人不喜欢看,只是类似的话题,互联网已经太多了,在此之上,并非后来居上。新鲜话题,才可以使你保持较高排名。
C:转载文章字数的选取,要知道什么样的文章最适合搜索引擎优化,拿文章字数来说,多少字的文章更适合网站优化呢?很多站长写原创二三百字,转载文章二三百字,如此做法有用吗?笔者认为:转载文章,产生有益于网站权重的优化效果,字数更应保持在500字以上,搜索引擎应该有次判断标准。否则,草草几百字,又如何写出文章核心呢?由此质量也就可见一斑了。因此在内容转载途中,转载高质量有益于搜索引擎优化的文章,字数首先是其基本衡量标准之一。
三:转载保留版权是否有益优化?
在文章转载过程中,有着太多太多的文章被去掉了版权内容,为的是不影响网站“客户”造成流量的嫁接,以及搜索引擎的优化。但是在网站优化过程中,去掉版权链接就一定有益于优化吗?如此一来,还有多少人乐意去写文章呢?东抄抄,西抄抄不是省时又省力吗?因此,大多SEOer认为,搜索引擎对此有着一个属于自身的标准。在文章转载过程中,保留出处链接的内容更有益优化,保留版权才更易得到搜索引擎的青睐。为什么有些名气的网站,在转载他人文章中不去链接呢?一方面是对作者劳动成果的支持,另一方面也是有益于搜索引擎优化的必然之处。
精文转载有益优化,是不争的事实,然而对于部分站长来说却忽略了转载质量,认为只要转载便有益优化,最后导致不是被降权,就是K站。二进制网络携手专业网站建设公司引航科技(www.joyweb.net.cn)认为:文章转载狠抓品质,与内容的及时性、新鲜度,优化效果更佳!而采集,看似有其相同之处,但效果却天差地别,工具采集不可行,人为则优是内容优化王道。