1. privoxy实现PAC代理上网

    privoxy实现PAC代理上网 本文主要参考: Linux 使用 ShadowSocks + Privoxy 实现 PAC 代理 1. Privoxy实现http代理上网 安装privoxy: sudo apt install privoxy 配置: vim /etc/privoxy/config # 修改监听地址 listen-address 127.0.0.1:8118 # 代理转发: 若不打算实现PAC模式, 确保去除下一行的注释 # forward-socks5 / 127.0.0.1:1080 . 重启服务: sudo service privoxy start 2. PAC 生成pac.action: cd /tmp && curl -4sSkLO https://raw.github.com/zfl9/gfwlist2privoxy/master/gfwlist2privoxy && bash gfwlist2privoxy 127.0.0.1:1080 mv -f pac.action /etc/privoxy/ && echo 'actionsfile pac.action' >>/etc/privoxy/config && sudo service privoxy start 3. 测试 # 使用代理 curl www.google.com # 本地地址 curl "http://pv.sohu.com/cityjson?ie=utf-8"

    2019/04/19 技术

  2. session请求示例

    session请求示例 1. requests session requests自带session管理, 示例: import json import requests with requests.Session() as session: session.get('https://httpbin.org/cookies/set/sessioncookie/123456789') r = session.get('https://httpbin.org/cookies') assert r.status_code == 200 assert json.loads(r.text)["cookies"]["sessioncookie"] == "123456789" 2. scrapy session scrapy使用cookiejar管理session. 参考. def start_first_page(self, ): yield scrapy.Request("https://httpbin.org/cookies/set/sessioncookie/123456789", meta={'cookiejar': 0}, callback=self.parse_second_page) def parse_second_page(self, response): return scrapy.Request("https://httpbin.org/cookies", meta={'cookiejar': response.meta['cookiejar']}, callback=self.parse_other_page) 3. tornado client + session tornado本身不带session模块, 客户端可使用cookies维护session. 获取新cookies: cookies = response.headers.get_list('Set-Cookie') 使用新cookies: import tornado.httpclient http_client = tornado.httpclient.HTTPClient() # cookies = {"Cookie" : 'my_cookie=abc'} http_client.fetch("http://abc.com/test", headers=cookies)

    2019/04/07 技术

  3. ssh笔记

    ssh笔记 1. 免密码登录 主机 host1 希望免密码登录到服务器 server1中. 步骤: # in host1 # 生成私钥 ssh-keygen -t rsa # 将公钥复制到服务器中 scp ~/.ssh/id_rsa.pub ubuntu@server1:~/.ssh/tmp_id_rsa.pub # in server1 # 将公钥追加到授权 key 中 cat ~/.ssh/tmp_id_rsa.pub >> ~/.ssh/authorized_keys # in host1 # 免密码连接到 server1中 ssh ubuntu@server1 2. 使用代理 参考: ssh over socks5 3. 内网穿透 参考: 使用SSH反向隧道进行内网穿透 4. 维持心跳 客户端维持心跳的方法是, 在/etc/ssh/ssh_config中设置TCPKeepAlive yes, ServerAliveInterval 300, 然后重启. 也可以在ssh命令中添加参数: ssh -o TCPKeepAlive=yes -o ServerAliveInterval=300 ubuntu@server 5. 断点续传 参考: scp 断点续传 rsync -P --rsh=ssh your.file remote_server:/tmp/ 6. 硬件相关 根据How to change LCD brightness from command line (or via script)? , 可通过以下命令设置屏幕亮度: echo 400 | sudo tee /sys/class/backlight/intel_backlight/brightness 省电模式: echo 0 | sudo tee /sys/class/backlight/intel_backlight/brightness 亮度最大值为 cat /sys/class/backlight/intel_backlight/max_brightness 7. 文件传输 使用功能: rsync传输后删除源文件 遍历列表 tar解压缩到指定目录 # collect file servers=( "1.abc.com" "2.abc.com" "3.abc.com" ) for i in "${servers[@]}" do echo $i rsync -avz --remove-source-files root@$i:/opt/data/*.tar.gz /opt/data/ done # extract file for filename in /opt/data/*.tar.gz; do echo "$filename" tar -xzvf "$filename" -C /opt/data/extract/ && rm "$filename" done

    2019/04/04 技术

  4. python小技巧

    python小技巧

    2019/04/02 技术

  5. docker学习笔记

    docker学习笔记 1. 打包 flask server实例 参考 Dockerfile FROM ubuntu:latest MAINTAINER Rajdeep Dua "dua_rajdeep@yahoo.com" RUN apt-get update -y RUN apt-get install -y python-pip python-dev build-essential COPY . /app WORKDIR /app RUN pip install -r requirements.txt ENTRYPOINT ["python"] CMD ["app.py"] build: docker build -t flask-sample-one:latest . run: docker run -d -p 5000:5000 flask-sample-one 2. 将 container 保存为 image docker commit <CONTAIN-ID> <IMAGE-NAME> 3. 导出镜像 参考 使用 docker export <container_name> 导出镜像: # 导出 docker export furious_bell > /home/myubuntu-export-1204.tar # 导入 docker import - /home/myubuntu-export-1204.tar 使用 docker save <image_name> 导出镜像: # 导出 docker save 9610cfc68e8d > /home/myubuntu-save-1204.tar # 导入 docker load < /home/myubuntu-save-1204.tar # 重命名 docker images docker tag <image_id> image_name:latest 4. 镜像重命名 docker tag <image_id> image_name:latest 5. 使用外部文件 # create Dockerfile echo 'FROM python:3.6 WORKDIR /app pip install tornado -i http://mirrors.aliyun.com/pypi/simple --trusted-host mirrors.aliyun.com ENTRYPOINT ["python"] CMD ["app.py"] ' >> Dockerfile # build container docker build -t diy/server:latest . # start container docker run -d -v /home/ubuntu/app:/app -p 5000:5000 diy/server 6. docker常用命令示例 获取container日志: docker logs <container_id> 实时获取container日志: docker logs -f <container_id> 停止container: docker stop <container_id> 删除镜像标签: docker rmi -f <image_name>:<tag> 指定工作目录: docker run -d -v /home/frkhit/rkfeng/server:/app -w /app frkhit/docker-python:3.6-chrome python main.py 使用宿主时区:docker run -d -v /etc/localtime:/etc/localtime:ro ... 运行时指定时区:docker run -d --env TZ=Asia/Shanghai ... 执行多条命令: docker run -d -w /app frkhit/docker-python:3.6-chrome sh -c "python jd_main.py; python main.py" 查看容器变化: docker diff <container> 7. Dockerfile常用命令示例 复制多个文件: COPY file_1 file_2 file_3 ./ 添加作者信息: MAINTAINER frkhit "frkhit@gmail.com" 8. 端口绑定 # 端口绑定 docker run -d -p 8080:80 ... # ip + 端口 绑定 docker run -d -p 127.0.0.1:9999:80 ... # ip + 所有端口 绑定 docker run -d -p 127.0.0.1::80 ... # 查看容器端口绑定 docker port <container_id> 9. docker充当命令行工具 docker compose命令行工具 详见 https://github.com/docker/compose/releases 中的 run.sh工具。 运行 4.0版本的 mongoimport命令 mkdir -p dodo && chmod 777 dodo/ -R && cd dodo/ docker pull mongo:4.0 docker run --rm -v $(pwd):/workdir/ -w /workdir/ mongo:4.0 mongoexport --uri "<url>" --collection my_collection --out ./my_collection.bak 10. 宿主与容器传数据 # cp docker cp container:/app/data ./ docker cp ./data container:/app/ # 管道 cat input.txt | docker exec -i tor-1 /bin/bash -c 'cat > /app/data.txt' 11. 中文乱码 Dockerfile增加 ENV LANG C.UTF-8 如果需要增加中文字体支持, 可以参考: 给Docker镜像(Debian)添加中文支持和中文字体 12. 支持 crontab 容器中安装 crontab, Dockerfile 配置: # add crontab RUN apt-get -y install cron && \ echo '*/10 * * * * date >> /date.log ' >> /etc/cron.d/hello-cron && \ crontab /etc/cron.d/hello-cron && \ rm -rf /var/lib/apt/lists/* 启动命令增加 cron && ...

    2019/04/01 技术

  6. tornado使用总结

    tornado使用总结 1. 请求参数解析 获取请求消息体: self.request.body 获取请求参数(query, form-data, …): self.get_argument("name", None) # 必须指定默认值, 不然找不到key时会触发异常 获取请求参数列表(query, form-data, …): self.get_arguments("name[]") # 找不到key, 返回空列表; 不能设置默认值 获取请求参数object: self.get_argument("people[name]"), self.get_arguments("people[friend][]") 2. 异步/并发 使用线程池+yield实现异步: from concurrent.futures import ThreadPoolExecutor import tornado from tornado.concurrent import run_on_executor from tornado.web import RequestHandler import time class SimpleAsyncServer(RequestHandler): def __init__(self, application, request, **kwargs): super(SimpleAsyncServer, self).__init__(application, request, **kwargs) self.executor = ThreadPoolExecutor(10) @tornado.gen.coroutine def get(self, ): print("on get...") result = yield self._do_something() self.write(result) @run_on_executor def _do_something(self, ): """ 模拟耗时操作 :return: """ time.sleep(5) return {"msg": "OK"} 3. 先响应再执行后续操作 处理一个请求时, 可以显式调用self.finish(), 向客户端返回响应, 接着在服务端继续处理剩下的记录日志等业务. 如: def post(self, ): # 写入响应内容 self.write({"code": 200, "msg": "OK"}) # 返回响应: 客户端能拿到结果 self.finish() # 处理剩下的业务 self.logger.info("logging request...") time.sleep(60) self.logger.info("done!") 4. 返回响应 返回json 返回json结果, 最简单的方法是直接把dict传给self.write(dict_obj), self.write会在内部将响应内容转为str, 并设置header. 实际使用的过程中, 遇到过客户端解析结果, 因为单/双引号问题, 导致json解析错误. 为降低风险, 直接这样调用: self.set_header("Content-Type", "application/json; charset=UTF-8") self.write(json.dumps(result)) 返回二进制数据 有时候为了方便测试, 会在响应中直接返回二进制内容. 如服务端直接返回pickle序列化后的数据: self.write(pickle.dumps(data)) 客户端可以这样解析: import pickle import requests response = requests.post(xxx) data = pickle.loads(response.content) # object 5. 压缩数据 app = tornado.web.Application([ (r'/file', FileUploadHandler), ], compress_response=True, ) app.listen(8080) tornado.ioloop.IOLoop.instance().start()

    2019/03/30 技术

  7. 再读《MongoDB权威指南》

    再读《MongoDB权威指南》 刚接触mongo时,所看过最好的入门资料,就是《MongoDB权威指南》. 阅读后, 对mongo有一个直观的了解, 配合mongo官方文档, 使用mongo就没什么困难了. 最近新项目, 需要深度使用mongo, 如使用复杂的聚合操作生成报表数据. 项目中还遇到聚合操作形成数据库全局锁, 导致其他操作被阻塞的问题. 空闲之下, 决定再读《MongoDB权威指南》, 加深理解. 1. Mongo简介 聚合操作, 数据库能自动优化 支持存在时间有限的集合, 适合session管理等场景 支持固定大小的集合,适合保存日志等场景 支持一种协议,用于存储大文件和文件元数据(?) 2. MongoDB基础知识 objectId能提取时间戳 3. 创建 更新和删除文档 删除集合最快的方法: drop + 重建索引 更新操作不可分割: 原子性 array vs set. $push 对array添加元素; $addToSet将array当做set并添加元素; 前两者配合$each实现添加多个元素 删除元素: $pop vs $pull, 具体参考官方文档. $基于位置的数组修改器定位符. db.blog.update({"comments.author" : "John"},{"$set" : {"comments.$.author" : "Jim"}}), 定位符只更新第一个匹配的元素 修改器速度: mongo为文档大小预留空间; 当文档修改后大小不够,会执行文档移动操作. 批量更新文档,获取更新信息: ` db.runCommand({getLastError : 1}) # “返回最后一次操作的相关信息`. 写入安全(Write Concern), 有两种模式, 应答式(确认成功)和非应答式(不返回响应). 非应答式用于不重要数据存储场合. 4. 查询 返回制定键, 默认返回_id. ` db.users.find({}, {“username” : 1, “email” : 1}) # 返回三个键, db.users.find({}, {“fatal_weakness” : 0}) # 不返回指定键` 高级查询, 参数及示例. $where, 借用js. 但速度慢, 如无必要, 不要使用. 服务端脚本, 容易受到攻击. 避免使用skip略过大量结果, skip大量结果, 很占资源. 可行的方法是, 利用上一次查询的条件, 略过已查询的结果. 高级查询选项: $min, $max能强制使用索引, 具体参考书本. $maxscan, 扫描文档上限. 游标, 获取一致性结果. cursor = db.foo.find();while (cursor.hasNext()) {...}, 相同的结果可能返回多次, 原因是文档修改后空间不足可能被移动到后面. 解决方法是使用快照 db.foo.find().snapshot(), 但占资源, 尽量不用. 服务端游标的生命周期. 一般客户端会通知销毁游标; 服务端有超时记录, 超时后会自动销毁, 如果客户端需要长时间使用游标, 需要告知服务端不要超时销毁. 5. 索引 explain查看具体执行操作, 调试索引的好工具. 如 db.users.find({username: "user101"}).explain() db.currentOp() 如果新建索引不能短时间内返回结果, 可以另开shell执行db.currentOp()查看 索引的代价: 每次操作, 需要更新索引, 耗时更长. mongo限制索引上限为64; 每个集合最好不超过两个索引. hit(): 强制 MongoDB 使用特定的索引 稀疏索引: sparse. ` db.ensureIndex({“email” : 1}, {“unique” : true, “sparse” : true})`, email存在, 则唯一. 6. 特殊的索引和集合 固定集合: 固定大小, 循环队列. TTL索引, 这种索引允许为每一个文档设置一个超时时间. 一个文档到达预设置的老化程度之后就会被删除. 这种类型的索引对于缓存问题(比如会话的保存)非常有用. db.foo.ensureIndex({"lastUpdated" : 1}, {"expireAfterSecs" : 60*60*24}) # 24h 全文本索引, 用于全文检索, 耗资源. 地理空间检索, 最常用的是 2dsphere 索引(用于地球表面类型的地图)和 2d索引(用于平面地图和时间连续的数据). 支持交集, 包含和接近查询. GridFS存储文件. 7. 聚合 TODO: 待补充 17. 了解应用的动态 db.currentOp(): 查看正在进行的操作 db.killOp(): 终止操作. 注意, 只有交出了锁的进程才能被终止 system profiler: 可获得慢查询日志, 该操作默认不打开 stats: 获取集合, 数据库状态信息 mongotop 类似top, 获取当前操作信息. mongotop-locks, 获得每个数据库的锁状态 18. 数据管理 权限控制: 颗粒度 建立索引: ` db.foo.ensureIndex({“somefield” : 1}, {“background” : true})`. 前台建索引, 锁定数据库; 后台建索引, 定期释放写锁 压缩数据: 数据碎片; 使用 db.runCommand({"compact" : "collName"})压缩数据

    2019/03/24 技术

  8. tornado文件上传服务

    tornado文件上传服务 1. tornado 文件上传服务器示例 代码例子, 参考: Python tornado上传文件. import tornado.ioloop import tornado.web import os import json import tempfile class FileUploadHandler(tornado.web.RequestHandler): """ ref: https://blog.csdn.net/dutsoft/article/details/53942983 author: dutsoft """ def get(self): self.write(''' <html> <head><title>Upload File</title></head> <body> <form action='file' enctype="multipart/form-data" method='post'> <input type='file' name='file'/><br/> <input type='submit' value='submit'/> </form> </body> </html> ''') def post(self): result = {'result': 'OK'} file_metas = self.request.files.get('file', None) if not file_metas: result['result'] = 'Invalid Args' return result # prepare upload path upload_path = os.path.join(tempfile.gettempdir(), 'files') if not os.path.exists(upload_path): os.mkdir(upload_path) # save upload file in local disk for meta in file_metas: filename = meta['filename'] file_path = os.path.join(upload_path, filename) print("file_path is {}, file_name is {}".format(file_path, filename)) with open(file_path, 'wb') as up: up.write(meta['body']) self.write(json.dumps(result)) app = tornado.web.Application([ (r'/file', FileUploadHandler), ]) if __name__ == '__main__': app.listen(8080) tornado.ioloop.IOLoop.instance().start() 2. requests 调用接口上传文件 import requests # upload file upload_file = "upload.pdf" with open(upload_file, "rb") as f: content = f.read() # request resp = requests.post( url="http://127.0.0.1:8080/file", files={"file": (os.path.basename(upload_file), content)}, )

    2019/03/19 技术

  9. mongo学习笔记

    mongo学习笔记 1. mongo document学习笔记 1.1 BSON 类型 ObjectId: 快速, 有序, 时间相关 String Timestamps Date 1.2 Document类型 字段(field)有长度限制: 如field name不超过128, 等 Dot Notation: <array>.<index>, <embedded document>.<field> 单文档有大小限制:16MB 1.3 聚合 MongoDB provides three ways to perform aggregation: the aggregation pipeline, the map-reduce function, and single purpose aggregation methods. 聚合字段: $match: 匹配, { $match: { name: "Joe Schmoe" } } unwind: 打散,针对array, { $unwind: "$resultingArray"} $project: 投射, {"$project":{"author":1,"_id":0} #只提前author $redact: 校验, { $redact: { $cond: { if: { $eq: [ "$level", 5 ] }, then: "$$PRUNE", else: "$$DESCEND" } } } $skip: 跳过, { $skip: 5 } $lookup: 跨表检索, { $lookup: { from: "otherCollection", as: "resultingArray", localField: "x", foreignField: "y" } } Note: 各字段配合的优化, 参考文档 聚合限制: Result Size Restrictions: 单doc <= 16MB Memory Restrictions: Pipeline stages have a limit of 100 megabytes of RAM; The $graphLookup stage must stay within the 100 megabyte memory limit. todo: 聚合操作zip code data set(经纬度) Aggregation with User Preference Data, 利用用户信息表举例: 获取所有员工名称 根据加入时间返回员工名称 获取每个月新加入的人数 获取前五个最受欢迎的爱好 1.4 检索 条件检索 $or: cursor = db.inventory.find({"$or": [{"status": "A"}, {"qty": {"$lt": 30}}]}) $and 检索列表: Match an Array: db.inventory.find({"tags": ["red", "blank"]}) # tags == ["red", "blank"]; db.inventory.find({"tags": {"$all": ["red", "blank"]}}) # tags 同时存在"red","blank"两个元素 Query an Array with Compound Filter Conditions on the Array Elements: db.inventory.find({"dim_cm": {"$gt": 15, "$lt": 20}}) # 15<x<20; x>15, y<20 Query for an Array Element that Meets Multiple Criteria: db.inventory.find({"dim_cm": {"$elemMatch": {"$gt": 22, "$lt": 30}}}) # 其中有一个元素22<x<30 Query for an Element by the Array Index Position: db.inventory.find({"dim_cm.1": {"$gt": 25}}) Query an Array by Array Length: db.inventory.find({"tags": {"$size": 3}}) Project: db.inventory.find({"status": "A"}, {"item": 1, "status": 1}) means SELECT _id, item, status from inventory WHERE status = "A" db.inventory.find({"status": "A"}, {"item": 1, "status": 1, "_id": 0}) means SELECT item, status from inventory WHERE status = "A" db.inventory.find({"status": "A"}, {"status": 0, "instock": 0}) means return All except for status and instock 其他 db.inventory.find({"item": None}): None 或 不存在 db.inventory.find({"item": {"$type": 10}}): 类型检查, 查询值为None的记录 db.inventory.find({"item": {"$exists": False}}): 不存在 1.5 固定集合(Capped Collection) 判断当前集合是否是固定集合: db.collection.isCapped() 转化为固定集合(原数据可能会丢失): db.runCommand({"convertToCapped":"my_coll",size:2000000000, max:500000}). max 为文档数量, size 为内容大小 2.聚合操作 2.1 获取列表元素集合 keywords: group, unwind, aggregate 举例,有如下数据: {"_id": "1", "tags": ["a", "b"]} {"_id": "2", "tags": ["a", "b", "c"]} {"_id": "3", "tags": []} {"_id": "4", "tags": ["c", "d"]} 求tags元素集合? 方法: db.test.aggregate([ {"$unwind": "$tags"}, {"$group": {"_id": "$tags"}}, ]) 2.2 获取某个字段的所有取值 db.getCollection('<collection>').aggregate( [ { "$group" : { _id : null, "city": { "$addToSet": "$city" } } } ] ) 3.update操作 3.1 修改列表元素的值 keywords: update_many 举例,有如下数据: {"_id": "1", "tags": ["a", "b"]} {"_id": "2", "tags": ["a", "b", "c"]} {"_id": "3", "tags": []} {"_id": "4", "tags": ["c", "d"]} 将tags中”a”修改为”A”? 方法: self.db["test"].update_many( filter={"tags": "a"}, update={"$set": {'tags.$': "A"}}, upsert=False, ) # 一次操作只能修改一个值 # 如果tags中存在多个"a", 需要多次执行以上代码 3.2 删除列表元素的值 keywords: update_many 举例,有如下数据: {"_id": "1", "tags": ["a", "b"]} {"_id": "2", "tags": ["a", "b", "c"]} {"_id": "3", "tags": []} {"_id": "4", "tags": ["c", "d"]} {"_id": "5", "tags": ["c", "d", "a", "a"]} 将tags中所有”a”删除? 方法: tag_list = ["a"] self.db["test"].update_many( filter={"tags": {"$in": tag_list}}, update={"$pull": {'tags': {"$in": tag_list}}}, upsert=False, ) # 执行后, _id = "5"的记录, tags中两个"a"均被删除 3.3 列表修改高级版 假设有数据如下 collection.insert_many([ {"name": "a1", "tags": [{"weight": 10}, {"weight": 20}]}, {"name": "a2", "tags": [{"weight": 11}, {"weight": 21}]}, {"name": "a3", "tags": [{"weight": 10}, {"weight": 25}]}, ]) 3.3.1 将weight=10的标签的权重更改为20 # 执行一次,只会更新该条记录中满足条件的第一个元素 collection.update_many( {"tags.weight": 10}, {"$set": {"tags.$.weight": 20}}, upsert=False, ) 修改所有匹配值的方法: while True: result = collection.update_many( {"tags.weight": 10}, {"$set": {"tags.$.weight": 20}}, upsert=False,) if result.matched_count == 0: break 3.3.2 将weight!=10的标签的权重更改为10 # 执行一次,只会更新该条记录中满足条件的第一个元素 collection.update_many( {"tags": {"$elemMatch": {"weight": {"$ne": 10}}}, {"$set": {"tags.$.weight": 20}}, upsert=False, ) 3.3.3 将weight!=10 or weight!=20的标签的权重更改为10 # 执行一次,只会更新该条记录中满足条件的第一个元素 collection.update_many( {"tags": {"$elemMatch": {"$or": [{"weight": {"$ne": 10}, {"weight": {"$ne": 20}]}}}, {"$set": {"tags.$.weight": 20}}, upsert=False, ) 3.4 set only not exists mongo 提供 $setOnInsert 操作符, 来实现当文档不存在才设置的功能。 db.collection.update( <query>, { $setOnInsert: { <field1>: <value1>, ... } }, { upsert: true } ) 4. 工具 4.1 导出 collection mongoexport --uri "mongodb://<username>:<password>@<host1>:<port1>,<host2>:<port2>/<database>?replicaSet=mgset-123456&authSource=admin" --collection <collection> --fields <field1>,<field2> --out <outfile> 要点: uri后加引号, admin放到authSource 或者: mongoexport -h <host> -d <databse> --collection <collection> --fields <field1>,<field2> --out <outfile> 4.2 导入 collection mongoimport --uri "mongodb://<username>:<password>@<host1>:<port1>,<host2>:<port2>/<database>?replicaSet=mgset-123456&authSource=admin" --collection <collection> --fields <field1>,<field2> <datafile> 或者 mongoimport -h <host> -d <databse> --collection <collection> --fields <field1>,<field2> <datafile> 4.3 索引操作 新建索引: db.getCollection('<collection>').createIndex( { "age": 1}, {background: true, name:"_age_"} ) 4.4 mongo 版本不兼容 mongo 升级到 4.0 版本后,其工具如mongodump, mongoimport, mongoexport也需要升级到 4.0版本。 为避免安装这些工具导致主机软件环境混乱,可以使用 docker 执行所需的工具。 # download images docker pull mongo:4.0 # mkdir working dir mkdir -p dodo && chmod 777 dodo/ -R && cd dodo/ # run mongo tools docker run --rm -v $(pwd):/workdir/ -w /workdir/ mongo:4.0 mongoimport --uri "mongodb://<username>:<password>@<host1>:<port1>,<host2>:<port2>/<database>?replicaSet=mgset-123456&authSource=admin" --collection <collection> --fields <field1>,<field2> <datafile>

    2019/03/18 技术

  10. python异步服务器测试

    python异步服务器测试 1. 安装AB进行压力测试 1.1 准备环境 mac 安装AB, 参考: curl -OL http://ftpmirror.gnu.org/libtool/libtool-2.4.2.tar.gz tar -xzf libtool-2.4.2.tar.gz cd libtool-2.4.2 ./configure && make && sudo make install # brew install 'https://raw.github.com/simonair/homebrew-dupes/e5177ef4fc82ae5246842e5a544124722c9e975b/ab.rb' # brew test ab curl -O https://archive.apache.org/dist/httpd/httpd-2.4.2.tar.bz2 tar zxvf httpd-2.4.2.tar.bz2 cd httpd-2.4.2.tar.bz2 ./configure && make && make install 1.2 客户端测试代码 ab -n 10 -c 1 http://localhost:8000/ ab -n 10 -c 2 http://localhost:8000/ ab -n 10 -c 5 http://localhost:8000/ ab -n 10 -c 10 http://localhost:8000/ ab -n 100 -c 10 http://localhost:8000/ ab -n 100 -c 20 http://localhost:8000/ ab -n 100 -c 50 http://localhost:8000/ ab -n 100 -c 100 http://localhost:8000/ 2. tornado测试 2.1 tornado服务端代码 from concurrent.futures import ThreadPoolExecutor import tornado from tornado.concurrent import run_on_executor from tornado.web import RequestHandler import time class SimpleAsyncServer(RequestHandler): def __init__(self, application, request, **kwargs): super(SimpleAsyncServer, self).__init__(application, request, **kwargs) self.executor = ThreadPoolExecutor(10) @tornado.gen.coroutine def get(self, ): print("on get...") result = yield self._do_something() self.write(result) @run_on_executor def _do_something(self, ): """ 模拟耗时操作 :return: """ time.sleep(5) return {"msg": "OK"} def make_app(): return tornado.web.Application([ (r"/", SimpleAsyncServer), ]) if __name__ == "__main__": app = make_app() app.listen(8000) tornado.ioloop.IOLoop.current().start() 2.2 测试结果 请求总数 并发数 ab总耗时(s) 10 1 50.0 10 2 30.0 10 5 15.0 10 10 10.0 100 10 55.1 100 20 30.0 100 50 15.1 100 100 10.1

    2019/03/15 技术