C笔记
编程笔记 #include<stdlib.h> 对rand()的定义。#include<time.h> 初始化rand()所用头文件。srand(time(NULL)); 初始化rand()所用代码。sqrt **的平方根文件输入法:{freopen(“文件名.类型”,”r”,stdin); 文件输入。freopen(“文件名.类型”,”w”,stdout); 文件输出。}float 较短浮点数定义法。double 较长浮点数定义法。浮点型数据输入、打印方法:{输入:float型:scanf(“%f”,&某某);double型:scanf(“%lf”,&某某);输出:float型:printf(“%f”,某某);double型:printf(“%lf”,某某);}continue; 结束本次循环。printf(“%.某某f”,某某); 表示精确到小数点后几位。pow(一个数,次数);freopen(“CON”,”r”,stdin);freopen(“CON”,”w”,stdout);CON-键盘。sizeof:测量变...
Anaconda3及Python虚拟环境的使用
Anaconda3及Python虚拟环境的使用前言当时,花了大量时间尝试搞清楚Python虚拟环境到底是什么,应当如何调用,这里来记录一下,方便后进之人查阅。。。其实吗,血的教训,这种东西只要自己多尝试,多玩玩熟悉它就好了,一开始不需要吧工作机制什么的都搞明白~ 一些名词的解释 Python虚拟环境: 虚拟环境 conda 在命令行环境启用以及停用12345## 初始化conda init## 撤销conda init --reverse 常用的conda命令总结12345678910111213141516171819202122232425262728293031323334353637383940conda --version #查看conda版本,验证是否安装conda update conda #更新至最新版本,也会更新其它相关包conda update --all #更新所有包conda update package_name #更新指定的包conda create -n env_name package_name #创建名为env_name的新环境,并在该环...
Python网络爬虫-requests库使用指南
request的八个方法requests 所有功能都能通过 “requests/api.py” 中的方法访问。它们分别是: requests.request(method, url, **kwargs) requests.get(url, params=None, **kwargs) requests.options(url, **kwargs) requests.head(url, **kwargs) requests.post(url, data=None, json=None, **kwargs) requests.put(url, data=None, **kwargs) requests.patch(url, data=None, **kwargs) requests.delete(url, **kwargs) 除了 requests.request() 外,其余 7 个方法与 http 协议中的请求方法一一对应。阅读源码后,不难发现,这 7 个方法其实都是在调用 requests.request() 方法...
Pyinstaller打包python程序(单程序,多程序均可)教程
Pyinstaller打包python程序(单程序,多程序均可)教程 Pyinstaller打包python程序(单程序,多程序均可)教程 前言 安装Pyinstaller pyinstaller打包机制 打包方法 直接使用命令 使用spec 压缩 问题 参考 前言这篇文章将介绍如何安装并使用pyinstaller打包python程序(单个程序和多个程序均会教) 安装Pyinstaller使用命令pip install pyinstaller一键安装(记得把代理关掉如果有的话) pyinstaller打包机制我也不是很了解,这里结合使用经验和网上的教程,如有错误/不妥指出,请指出,必将改正,谢谢。Python是解释型语言,我们写的python文件不可以脱离python解释器独立运行,所以打包时,必须要打包python解释器、使用到的第三方库和脚本。这里要注意,即使我们的项目只用了一两个库,但因为库之间的依赖关系,打包时需要全部打包。(一般情况默认就可以了)打包的简单原理,pyinstaller 此时会生成相应的 spec 文件,大体流程如下: 在脚本目录生成...
Scrapy 入门教程
转载自Scrapy 入门教程 | 菜鸟教程 (runoob.com) Scrapy 是用 Python 实现的一个为了爬取网站数据、提取结构性数据而编写的应用框架。 Scrapy 常应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。 通常我们可以很简单的通过 Scrapy 框架实现一个爬虫,抓取指定网站的内容或图片。 Scrapy 架构图 (绿线是数据流向) Scrapy Engine(引擎): 负责 Spider、ItemPipeline、Downloader、Scheduler 中间的通讯,信号、数据传递等。 Scheduler(调度器): 它负责接受引擎发送过来的 Request 请求,并按照一定的方式进行整理排列,入队,当引擎需要时,交还给引擎。 Downloader(下载器):负责下载 Scrapy Engine(引擎) 发送的所有 Requests 请求,并将其获取到的 Responses 交还给 Scrapy Engine(引擎),由引擎交给 Spider 来处理, Spider(爬虫):它负责处理所有 Responses, 从中分析提取数据...
NOIP初赛_总结
小知识点总结 基础知识 1. 逻辑运算和二进制运算 2. 真值,原码,反码,补码 初赛数学 3. 排列组合 4. 进制转换 4.1. 基础 4.2. 技巧 5. 前缀、中缀、后缀表达式 & 表达式树 6. 树和图的性质 7. 复杂度分析 8. 组合数学 小知识点总结 d+i=&d[i] 图像的的存储计算公式 : 长 _ 宽 _ 深度(位:如 16 位)长和宽需换算成分辨率(就是像素) 如: 1024*248 注意:真彩色为 32 位16 位图深度就是十六 1Byte (B) = 8bit(位) 计算机的一些特殊逻辑运算 基础知识1. 逻辑运算和二进制运算 非: ! ¬ 与(and): & ∧ 或(or): | ∨ 异或(xor): ⊕ ∧ 注意不同与逻辑与 按位取反 ~ << 左移,最右边补 0 >> 右移,标准没有规定最左边补什么!实践上,unsigned 直接补 0;signed 复制原先的最高位。 异或运算法则:转换为二进制 看每一位 如有不同取 1 否则取 0e.g:0101 ∧ ...
一些站点记录
好书友, 阅次元
NOIP初赛_阅读与理解程序
[TOC] 阅读理解程序三分靠模拟,七分靠猜搞懂或者猜出变量的意思是非常重要的,例如 sum 是求 注意: 语法和逻辑上的坑点 常用算法有大体上类似的写法 通过特殊语句判断程序意图 长程序:分成部分的子功能,从主函数开始看 技巧: 数东西时如果看着挺对称的就用二分 一些算法,数据结构的标志及技巧二分标志:while(l != r) 或 while(l <= r)mid = (l+r)/2[l,mid] [mid+1,r] 链表标志: 观察插入、删除的代码有时会有各种数组指针(经常是比较复杂的数组嵌套,例如 a[b[c]]),可以画图找方向 最短路判断标准:Dijkstra:priority_queue 复杂度分为 O(nlogn)和 n*n 两种 n*n 的算法每次都要找最小值SPFA:queueFloyd:三重 for 循环 最小生成树标志: 函数名为 MST(正常人都会用。。。)算法:Kruskal, Prim 一些常见函数变量名的意义(不是一定仅供参考)函数 getPermutation 获取排列STL 方法: getN...
Alist
systemctl restart alistsystemctl status alist
Vim详细配置教程
相关知识Linux下Vim的配置文件一般在/etc/vim/vimrc或/etc/vimrc中。个人的配置在~/.vimrc中。Windows下配置文件一般在安装目录下的脚本_vimrc中下面的介绍以Linux环境为主,当Linux和Windows环境下操作相差较大时会附加上Windows下的操作。单次编辑某个配置项,可以在命令模式下,先输入一个冒号,再输入配置。举例来说,set number这个配置可以写在.vimrc里面,也可以直接在命令模式输入:set number。 https://www.cnblogs.com/cecwxf/archive/2012/03/29/2424433.htmlhttp://www.ruanyifeng.com/blog/2018/09/vimrc.html