屌丝seo变大神网站内容和结构优化的思维
发布时间 : 2019-07-04 11:18 浏览量 : 26


要策略性地组织网站内容,要问的主要问题之一是,网站是否易于导航,用户是否可以找到他们想要的信息? 为了帮助提高您的网站在搜索引擎中排名更高的机会,确保网站易于浏览非常重要。这是通过以逻辑模式安排信息,通过URL结构主题安排内容孤岛以及通过为页

要策略性地组织网站内容,要问的主要问题之一是,“网站是否易于导航,用户是否可以找到他们想要的信息?”

为了帮助提高您的网站在搜索引擎中排名更高的机会,确保网站易于浏览非常重要。这是通过以逻辑模式安排信息,通过URL结构主题安排内容孤岛以及通过为页面主题应用适当的关键字等内部链接来实现的。这给出了结构,而不是散布随机文章和网站上的无序思想流。良好的网站组织的目的是确保逻辑模式中内容的稳固结构和整合,以便用户和搜索引擎抓取和索引页面时,可以直接导航。


结构优化思维

主题散射分析

主题散射分析是分析网站上现有内容的过程,用于确定特定主题的内容分散在多个网页/部分中的区域,并有目的地将该内容组织为更大的内聚单元信息。分析首先检查主题是否覆盖在网站的多个孤岛或部分中,然后以有意义且易于消化的方式组织信息和内容。主题散射分析对整合您网站上的信息和内容以及为搜索引擎蜘蛛提供逻辑结构化信息进行消化至关重要。

内容合并

当您在每个页面上评估主题时,必须进行分析,看看是否有机会将信息合并到一个位置。例如,如果您有一个覆盖木制桌上细节的页面,并且在另一个页面上提供了有关红色表格的详细信息,如果内容不能从两个不同的区域中获益,则可以将信息合并并合并到一个空间中可能会有所帮助相当相似的信息页面。合并内容可让Google整合重要网页上的排名信号,并可更有效地抓取您的网站。

主题评估(筒仓)

主题或筒仓是指通过将相关主题集中在经过深思熟虑的目录结构中来组织网站内容,该目录结构容纳以逐步特异性为目标关键词的内容。

:将针对关于小部件的顶级和通用关键字的部分。

:针对二级关键字只针对伪造小部件的部分。

针对关键字的非常具体的页面,这些关键字与学习如何识别伪造小部件有关。

内容分离

除了将数据整合到一个页面上之外,它还运用逻辑地安排网站信息的相同概念,分析可以在哪里分离内容。在将太多信息打包到一个页面上的情况下,您必须评估内容分布并查看网站上是否存在更好的位置。分析哪些主题可能会扩展,哪些主题可以分离到不同的页面上,以便用户更友好的网站。

重复的内容

搜索引擎认为每个URL都是一个独特的对象或页面。无论页面的用途如何,重复内容的每个实例都会对排名产生负面影响,前提是允许搜索引擎对其进行爬网。有时需要有两个(或更多)具有相同内容的页面; 然而,即使内容对用户有帮助并且有意义,但它在搜索引擎中的存在会引起排名问题。建议排除搜索引擎中任何内容的确切(或甚至类似)副本,或者尽可能避免重复内容。

重复的内容可能由许多因素造成,包括URL参数,打印机友好版本的页面,会话ID和排序功能。这些类型的网页往往是网站中常见的有用部分,但仍然需要解决,以避免向搜索引擎提供重复页面。有几种推荐方法可以解决重复内容问题:301重定向,rel =“canonical”标记,robots.txt排除和noindex元标记。

301重定向或永久重定向会将到达重复页面的用户和蜘蛛直接发送到原始内容页面。这些重定向可以跨子文件夹,子域和整个域使用。

rel =“canonical”属性的作用类似于301重定向,但有几个关键区别。首先,虽然301重定向将蜘蛛和人类都指向了不同的页面,但规范属性仅限于搜索引擎。通过这种方法,网站管理员仍然可以跟踪访问者的唯一网址,而不会招致任何处罚。可以携带规范属性的标签的结构如下。

该标签将被放置在HTML文档中,该文档需要将归因归因于搜索引擎应该认为原始页面。网站管理员还可以通过在特定页面上使用noindex元标记来从搜索引擎中排除网页。使用noindex元标记,网站管理员可以确保该网页的内容不会被编入索引并显示在搜索结果页面中。

最后推荐的方法涉及使用robots.txt文件。使用robots.txt,网站管理员可以向搜索引擎蜘蛛提供指令,以防止他们索引网站的某些部分。这些网页的网址仍可能会显示在某些搜索引擎索引中,但前提是该网页的网址是专门搜索的。提示:虽然官方搜索引擎机器人(蜘蛛)会遵循robots.txt协议,但恶意机器人往往完全忽略它们。

如果放置在robots.txt文件中,则下面的指令将禁止bing蜘蛛抓取并索引'小部件'目录。

精简内容

精简内容描述了内容非常少的页面或可能具有很少内容的页面。后者更准确的描述,因为可能有很少内容的页面很有用(例如,如果一个主题只需要几句话来覆盖/描述,那么就没有必要生成一个百科全书式的内容) 。

根据谷歌网络垃圾邮件团队负责人马特卡茨的说法,精简内容可以为特定搜索提供很少的信息或不提供任何新的信息。电子商务网站对于不同产品可能有数百或数千个网页的电子商务网站而言,这种问题特别常见,只有最少的产品详细信息和信息。

解决此问题的最佳长期解决方案是为每个可能包含重复或无光泽信息的网页创建独特的内容。通过补充重复的信息和独特的文本部分,如详细的描述,评论,意见,视频或简短的编辑,网站管理员可以增加他们的网站与搜索引擎的相关性。

典范

规范可以用来帮助避免通过指定一段内容的原始发布页面来创建重复的内容。规范标签的一个具体用途是在列出产品的页面上,并且具有根据产品如何排序产生不同URL的排序功能。在这种情况下,从默认演示文稿中进行排序的任何变化都可以使用规范标记来指示原始URL是唯一应该编入索引的URL。

例如,如果网页列出了各种小部件,并且具有网址,并且提供了排序链接(&sort=price)以允许小部件要根据价格进行排序,那么有必要使用&sort=price上的规范标签来指明原始内容位于,并且&sort=price不应被编入索引。&sort=price上的规范标签将如下所示,并放置在文档中。

标签:
cache
Processed in 0.005052 Second.