1、禁止搜索引擎索引
避免还没上线就被收录。可以直接在robots.txt中写就行。 User-agent: *Disallow: / Shopify操作步骤:
- 在 Shopify 后台中,转到在线商店 > 模板。
- 点击操作,然后点击编辑代码。
- 点击添加新模板,然后选择机器人。
- 点击创建模板。
- 对默认模板执行所需更改。
WordPres操作步骤:
- 在Wordpress后台中,点击设置>阅读>对搜索引擎的可见性☑️
- 当然也可以在通过插件实现,也可以直接写robots.txt文件。然后上传到服务器相应的文件夹目录下。
其他平台操作大同小异。 Robots.txt写法与规则如下:
搜索引擎 | 蜘蛛代号 |
谷歌 | Googlebot |
百度 | Baiduspider |
360搜索 | 360Spider |
搜狗 | Sogou News Spider |
必应 | bingbot |
MSN | msnbot |
ROBOTS.TXT规则 | 功能说明 |
User-agent: * Disallow: / | 禁止所有搜索引擎抓取网站任何页面;一般用于网站尚未建设完成时使用,屏蔽搜索引擎抓取。 |
User-agent: * Disallow: /abc/ | 禁止所有搜索引擎抓取abc这个目录内容;比如,wordpress网站需要禁止抓取wp-admin这个管理登录的目录。另外,不要使用robots规则限定你的隐私内容,仍然有可能泄露。隐私页面最好还是设置为普通用户不可见最为安全。 |
User-agent: Googlebot Allow: / User-agent: * Disallow: / | 只允许谷歌蜘蛛爬取网站,其他搜索引擎禁止爬取。 |
User-agent: Googlebot Disallow: / User-agent: * Allow: / | 除了谷歌不可以抓取,其他搜索引擎均可爬取网站。 |
User-agent: * Disallow: /abc.html | 禁止所有搜索引擎抓取abc这个html页面;此规则可用于禁止抓取网站中某个页面。 |
User-agent: * Disallow: /images/abc.jpg | 禁止所有搜索引擎抓取网站images目录下的abc这个jpg图片。禁止抓取某个页面或者图片等文件,需要正确填写所在位置。 |
User-agent: Googlebot Disallow: /*xls$ | 禁止谷歌抓取网站中所有以xls为结尾格式的文件。 |
2、完善基础信息
包含(logo,favicon,标题,slogan,描述) 基础信息就不用多说了,这个应该提前想好,不要一点规划都没有。 logo生成工具:
- Logomaker
- designhill
- hatchful
- Tailor Brands
需要注意的是,制作favicon图标可以用相应的工具:
formito,
favicon,
slogan也有生成的:可以谷歌搜slogan generator
3、确定页面「框架」,
服务/工具型确定服务页面,价格。产品型确定产品清单。
确定网站页面其实就是确定网站大纲的框架是什么样的。
都有哪些页面。 如果是卖产品的,就要确定产品系列,分类如何分,大分类,小分类等。
如果不会分的,可以看看竞品网站或者Shopify做的好的独立站。
服务或者工具型的就比较简单了,三四个页面就搞定。
4、网站测试
网站全部完成后,测试各种功能的正常使用,包含邮件,下单付款能否正常。 这个没啥可说的,就是在上线前,先测试各种功能,尤其是付款,邮件。
5、站内优化
优化站内每个页面,以及网站地图等。 站内优化,涉及内容挺多的,我后面慢慢更新,包含如何写标题,描述,布置关键词等。
6、网站速度优化
先测试目前的速度,看看那些地方需要改进。 根据所在国家及市场,测试在该国家的访问速度,一般不超过3秒。越快越好。 测速工具:
- Pagespeed「谷歌官方」
- Pingdom
- GTmetrix
7、提交收录
取消搜索引擎索引设置,将网站提交到站长平台。(谷歌,bing,yandex) 经过一系列操作后,网站基本搞定了,是时候提交让谷歌来抓取了,把之前禁止的取消,然后提交到各大搜索引擎平台。这个没啥操作难度。
8、网站统计
设置网站统计,开始做内容。并定期查看收录情况。 网站统计设置,这个的话就很重要了,不然你一顿操作猛如虎,最后不能跟踪数据。那就尴尬了。 Shopify有自带的统计功能,但是个人建议用谷歌统计。任何网站都应该用谷歌三件套。