回复 9# bailong360
一千万行九位数据,TXT大约100M,python一次生成这么多随机数时,进程占用内存是220M-450M左右。使用集合去重处理,内存占用增加到550M,发现每一千万随机数,大约只有五万个是重复的。
另外我电脑可用内存在6-8G时运行你的批处理也是报和上面一样的错误。- """
- 如何随机生成1到999999999之间的数字.py
- http://bbs.bathome.net/thread-39410-1-1.html
- 2016年2月19日 01:56:51 codegay
- """
-
- import time
- import random
- start=time.time()
- print("运行中..."*3)
-
- txt={str(random.randint(1000000001,2000000000))[1:]+"\n" for r in range(10000000)}#集合解析生成一千万随机数并去重。会导致比列表解析慢上7秒左右。运行耗时: 44
- print(len(txt))
- with open("sj.txt","a+") as f:
- f.writelines(txt)
-
- end=time.time()
- pt=end-start
- print("运行耗时:",pt)
- try:
- input("按回车退出")
- except SyntaxError:
- pass
复制代码
|