现在的位置: 首页 > 程序人生 > Linux > 正文
http 连接复用
2013年08月25日 Linux, 程序人生 ⁄ 共 1500字 评论数 8 ⁄ 被围观 10,137 views+

定义

Http/1.0每次请求都需要建立新的TCP连接,连接不能复用。Http/1.1新的请求可以在上次建立的tcp连接之上发送,连接可以复用。

优点

减少重复进行tcp三次握手的开销,提高效率。注意:在同一个tcp连接中,新的请求需要等上次请求收到响应后,才能发送。

实现

自己写了一个http下载页面的工具,url是以文件的形式批量的进行下载的。支持连接复用下载。

主要的思路

在发送http的请求头中设置Connection: keep-alive。

当前的url与上一次下载的url之间进行对比,如果host相同的话,则用上一次的socket_id。否则关闭上一次的socket,重新连接服务器,获取新的socket。所以,url的文件,需要进行排序,将同一个站点的url放在一起即可。

ps:这里实现的形式比较的简单。复杂一点,可以用一个map,std::map<std::string host,int socket_id>,对host的socket_id进行映射。但是这里需要关注map的<host,socket_id>的失效时间,不能昨天建立的连接一直不关闭,今天仍然在使用,服务器端会有最大的连接时间的限制。例如tomcat中有个 maxKeepAliveRequests属性.默认值是100,该属性表示当同一个连接的请求达到maxKeepAliveRequests的值时会自动断开这个连接. 。多线程的话,还需要关注该socket_id是否正在使用,发送和接收数据。

测试集合

http://news.qq.com/a/20130824/006645.htm

http://news.qq.com/a/20130825/000112.htm

http://news.qq.com/a/20130824/005661.htm

http://view.news.qq.com/intouchtoday/index.htm?2529

http://www.163.com/

测试结果

第二条和第三条url是使用第一条的socket_id进行下载,下载成功。

1

服务器端超时关闭测试

用了比较笨的方法,在下载每个url中间sleep的方法,来测试长连接关闭的时间,因为本客户端在url下载完之前是不会close(socket_id)的,所以出现连接关闭,应该是服务器端主动关闭的。

测试站点:news.qq.com

当sleep的时间超过30s,tcp连接的状态会从ESTABLISHED变成CLOSE_WAIT。同时用这个socket_id再向服务器端发送数据,也不会收到服务器端的响应。

当sleep的时间为29s,或者小于29s。复用连接下载正常。

由于程序有其他的一些运行的耗时,所以推测news.qq.com的长连接的超时时间是30s。对于长连接来说,超过30s之后,服务器端就会主动断开连接。Http的连接复用也就无法获取结果了。

所以,对于http连接复用,最大的难点也就是准确的获取每个站点的长连接的最大限制时间。超过最大限制时间就必须进行重连,不然会导致请求无反映的情况。

Keep-Alive

在下载某些站点的时候,看到返回的http头中,有明确的对长连接的timeout限制。

Keep-Alive: timeout=1, max=100

timeout:过期时间1秒(对应httpd.conf里的参数是:KeepAliveTimeout),max是最多一百次请求。这两个限制条件,只要满足一个就会强制断掉连接。

就是在timeout时间内又有新的请求过来,同时max会自动减1,直到为0,强制断掉。

1111

想交流的朋友,在本文留言即可。

原创文章,转载请注明: 转载自成长的企鹅

本文链接地址: http 连接复用

关于我:成长的企鹅简介

目前有 8 条留言 其中:访客:4 条, 博主:2 条 引用: 2

  1. 冰封 : 2013年10月18日17:44:13  -49楼 @回复 回复

    写的很不错,但是太深奥了看不懂呀,哈哈
    这个主题是什么的,挺好看的…. :mrgreen:

  2. Blur 丶 : 2014年11月11日15:54:23  -48楼 @回复 回复

    非常不错啊,怒赞

  3. 伦家失恋了 : 2015年10月10日10:09:41  -47楼 @回复 回复

查看来自外部的引用: 2

给我留言

留言无头像?


×