蜘蛛首先会以抓取密度出来了以后,搜索引擎自己会有个尺度判定(人为设计的参数),有个等级,?-?是最公道的,?—?是一般的,?—?是最差的,这个尺度时刻在变,总之是根据一段时期的数据进行调整的(就是让你隔段时间闹一转意)。
下一步,蜘蛛会计算(这个简朴的数据计算功能仍是有的)所有枢纽词在网页代码中泛起的数目,作为基数。然后计算标签中“枢纽词”的数目,作为分子(汗,想不出什么词了,通俗第一)。然后一除,就得出了你这个页面的枢纽词密度。
你可以放心,蜘蛛可以判定一些JS代码和页面中的标签,他会比较正视正文和div块中的标题部门的“枢纽词”,也就是系列的。这也可以验证大家说的,为什么中的内容,会比其他中的文本内容权重高的原因。然后蜘蛛会把
中在正文部门重复次数最多的词,定为“参考枢纽词”(当然了,有个重复限度,搜索引擎会设定并嵌入蜘蛛程序里)。