在线工具

2019-11-15     1

今天我使用php函数 $img = "图片路径"; readfile($img); 的时候,出现了以下报错: [2] ErrorException in Web.php line 368 readfile(): SSL operation failed with code 1. OpenSSL Error messages: error:14090086:SSL routines:SSL3_

2019-12-09     1

我想用php采集一个网站的数据,但是无法获取该网站的数据。网址如下: http://www.lmcjl.com/ 希望您能试一下,只要能返回数据就行了。我试了很久不能成功。 $name = 'www.lmcjl.com'; $url = "http://$name/"; $header = array("GET / HTTP/1.1", "Host: $name", "Connection:

2019-12-11     1

PHP定时执行的小代码,关掉浏览器,PHP脚本也能后继续执行! php ignore_user_abort();//关掉浏览器,PHP脚本也可以继续执行 set_time_limit(20);//程序超时时间,单位秒;通过set_time_limit(0)可以让程序无限制的执行下去;当用了set_time_limit()函数设置运行时间,sleep()函数在执行程序时的持续时间将会被忽略掉 $in

2019-12-23     3

今天主要想了解,怎么把一篇文章的中文和英文全部打散,再进行重组,从而达到伪原创的最高效果。 网上的教程如下: 我们都知道,在PHP中处理字符串,可以用substr,str_split等等众多的方法,但是我想每个人都遇到过一个问题,那就是如何完美的处理中文字符串!我们知道,中文与英文和数字完全不同,英文和数字通常情况下都仅仅是占用一个字节,但是中文在不同编码下占用的字节是不同的,在UTF8中占用

2019-12-23     1

开心 数列1 数列2 数列3 无聊 数列4 数列5 数列6 兴奋 数列7 数列8 数列9 沮丧 数列10 数列11 数列12 问题一:提取标签内的内容的前3个 想要达到的效果为:开心,无聊,兴奋 问题二:提取标签内的所有内容,并加序列号和html标签 想要达到的效果为:1、开心2、无聊3、兴奋4、沮丧 问题三:第1个不替换,将从第2个开始的替换成,并且将从第1个开始的替换成 想要达到的效果

2019-12-26     1

取每个汉字的首字母 取每个汉字的全部字母 新建一个类的php文件,命名为Pinyin.php 内容下载地址: http://file.lmcjl.com/lmcjl/Pinyin.txt 下载后靠背里面的内容复制粘贴到里面,然后用上面的调用即可。

2019-12-28     2

今天使用php切割字符串 得出来的结果 array(3) { [1]=> string(6) "lmcjl在线工具" [2]=> string(2) "做最简单" [3]=> string(6) "好用的在线工具" } 数组不再是从0开始,而是从1开始,而且可能出现不规则索引,所以想让数组重新排序 最后的解决方法:使用array_values

2019-12-28     1

当发现系统磁盘空间突然上升时,想知道那個目录或文件占用最多空间和内存的时候,可以用 du + sort + head 指令完成,它们的作用分別是: du: 计算目录所使用的空间 sort: 将输入的文件资料排序 head: 将输入的文件资料的最最开始几行显示出来 假如发现 /home 里面的文件使用异常时,可以用以下指令查看 /home 里面 10 个使用最多的空间和文件或目录: du -a

2020-01-12     2

提取文章内容的第一张图片链接,代码如下: $content = $data['content'];//文章内容 $title_regular = '//isU';//正则匹配 preg_match_all($title_regular, $content, $thePics); $allPics = count($thePics[0]);//统计匹配数量 if ($allPics > 0) {/

2020-01-15     1

1.如果用curl请求网页,多方网页使用了gzip压缩,那么获取的内容将有可能为乱码。 解决方法 $url = 'https://www.lmcjl.com'; $ch = curl_init(); curl_setopt($ch, CURLOPT_URL, $url); curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); curl_setopt($ch,

2020-02-01     2

代码如下:

2020-02-03     2

/** * 获取爬虫是否存在 * ture 去掉秒点#anchor */ public function get_spider_ua_exists() { $userAgent = strtolower($_SERVER['HTTP_USER_AGENT']); $spiders = array( 'Baiduspider', // 百度爬虫