淘宝负责人语嫣语录摘抄:小而美指的是专注而不是大小

摘录① 谈淘宝

1.我们说的小而美,关键在美,小是专注,不是大小。

2.淘宝正在第三阶段的入口,即数据化运营淘宝。 现在淘宝要超越工业化的极限,完成数据化运营,不断推出数据化产品。

3.给天猫分流量是天经地义,天猫卖家花了很多钱,要服务好他们。我们则要做更好的商品匹配,让买家找到真正需要的卖家,个性化的导入,让搜索个性化,所有的产品都找到自己流向的毛细血管。

4.不同意淘宝是莱市场,你见过莱市场里有很多白富美,高富帅?

5.在叫的都是没赚到钱的,赚到钱的都不说,闷声发大财。 继续阅读“淘宝负责人语嫣语录摘抄:小而美指的是专注而不是大小”

robots.txt的规则误区并介绍百度和Google的robots工具的使用

前段时间写了篇robots.txt文件怎么写,但是通过实际观察,有些朋友对于robots.txt文件的规则还是有一定的误区。

比如有很多人这样写:

User-agent: *
Allow: /
Disallow: /mulu/

不知道大家有没有看出来,这个规则其实是不起作用的,第一句Allow: / 指的是允许蜘蛛爬行所有内容,第二句Disallow: /mulu/指的是禁止/mulu/下面的所有内容。

表面上看这个规则想达到的目的是:允许蜘蛛爬行除了/mulu/之外的网站所有页面。

但是搜索引擎蜘蛛执行的规则是从上到下,这样会造成第二句命令失效。 继续阅读“robots.txt的规则误区并介绍百度和Google的robots工具的使用”

robots.txt文件怎么写的案例分享

robots.txt文件是放在网址根目录的一文本文档,robots.txt可以屏蔽搜索引擎对于某些特定的网址或者全站的抓取。利用robots.txt文件可以屏蔽掉不想让搜索引擎抓取的内容,或者屏蔽掉重复的内容。

那么robots.txt到底怎么写呢?网上有很多教程,这里就用一些实际案例来分享一下robots.txt的写法。

首先我们要知道想屏蔽哪些网址,然后看看这些网址有没有什么规律,最后将这些网址写入robots.txt文件。只写robots.txt规则的话,看起来不直观,下面用实际的案例来说明,什么情况下怎么写robots.txt。 继续阅读“robots.txt文件怎么写的案例分享”

php出现Cannot modify header information解决实例

以前做了个PHP读取文本文档的小程序,然后改造了一下加了个登录功能,让它可以凭密码登陆修改文本文档,可以用在php在线修改robots文件等等。但是更换了主机之后,原来的代码不能用了,出现了Cannot modify header information的错误提示。

PHP Warning:  Cannot modify header information – headers already sent by (output started at /demo/robots.php:3) in /demo/robots.php on line 7
PHP Warning:  session_start() [<a href=’function.session-start’>function.session-start</a>]: Cannot send session cache limiter – headers already sent (output started at /demo/robots.php:3) in /demo/robots.php on line 4

而在其他主机和本地测试一切正常,最后网上找到一段话:

cookie本身在使用上有一些限制,例如:
1.呼叫setcookie的代码必须放在<html>标签之前
2.呼叫setcookie之前,不可使用echo
3.直到网页被重新载入后,cookie才会在程序中出現
4.setcookie函数必須在任何资料输出至浏览器前,就先送出……

那么会不会是Session也需要在<html>标签之前出现呢?而我为了省事,在代码中没有加入<html>标签,看了有些是不能省略的。

于是增加了标准html代码,并在将$_SESSION的判断放在了整个文档的前面。然后测试了下,成功了。有时候一个小的地方不注意,就会造成一些大的问题。以后要注意了。

登陆一下试试看吧:http://liboseo.com/demo/robots.php

分析三大门户的robots.txt文件,击碎屏蔽百度蜘蛛谣言

一直有谣言称三大门户新浪、搜狐、网易的博客都通过robots.txt文件屏蔽了百度蜘蛛,因为我一直使用自己的个人博客,很少使用这些第三方博客,所以没有太关注。

其实从道理上来说,各大门户不可能有屏蔽百度蜘蛛或者搜索引擎的动机,因为这些博客只是一个信息载体,获得流量有很大一部分是来自搜索引擎。门户的博客是不会自己堵住自己的流量大门的,这个跟淘宝屏蔽百度、京东当当等屏蔽一淘的原因是不一样的。

今天整理自己的一些门户的博客,于是想看看到底这些博客的robots.txt写了些什么?是否真的屏蔽了百度蜘蛛? 继续阅读“分析三大门户的robots.txt文件,击碎屏蔽百度蜘蛛谣言”