科普专线

0
  上午参加一个内部的总结会有提到使用网闸,特地找了两个讲的比较清楚的文章放到这里。网闸可以理解为两个网络中间运输数据的信使,把收到的数据转成一定格式再丢给目标机器,阻止内外网机器的直接会话连接,也就是说的摆渡模式。这样就要看接收数据方怎么处理数据了,理论上只要有使用数据都是会存在安全风险的。 网闸的工作原理请看http://wenku.baidu.com/link?url=fJzZZ8S7M3YxXx......

科普专线

1
在乌云上看到一个关于爬虫的科普文,写的挺不错,文章里面提到的主要要关注的两个点是URL去重和相似URL过滤,如果写一个漏扫,爬虫在数据处理的效率非常重要,要考虑的点就更多了,有时间在补充 :D 原文地址:http://drops.wooyun.org/tips/3915 0x00 前言 网络爬虫(Web crawler),是一种“自动化浏览网络”的程序,或者说是一种网络机器人。它们被广泛用于互联网搜索引擎或其他类......

科普专线

4
一、引言 我之前的文章中介绍了名为dumpmon的推特机器人,它监控着众多“贴码网站”的账户转储、配置文件和其他信息。自那以后,我一直留意着监测到的信息。接下来会有关于dumpmon的一系列文章,而本文则关注浏览器是如何存储密码的。 这里提到dumpmon,是因为我偶然发现一些贴码,如下网址,应该是感染在计算机上的恶意软件的日志。我便想:我总是认为最好不要让浏览器直接存储密码,但是原因呢......

科普专线

0
   早上微博收到一条at,是SniFFeR.Pro团队的p0tt1发表了一篇关于终端机安全的总结文章,看了下总结的很到位,文章写的很用心,非常感谢p0tt1的分享,我把这个文章转载到我博客分享一下,顺便再加两个简单粗暴的方法 1.到终端机后部找电源线,直接拔掉再插上等待重启。 2.到终端机后部或者侧面找关机或重启一类的按钮。 这两种方法进去之后一般是windows桌面,或者几秒钟后自动弹出软......

科普专线 编程开发

2
AWVS提供了自定义的脚本编程接口,可是网上的资料很少,只有官方的几篇介绍和参考手册,最近研究了一下怎么编写AWVS的漏洞脚本来写一篇简单性的文章 本文以8.0为例,首先呢安装好Acunetix Web Vulnerability Scanner 8(该破解的破解,该付费的付费),然后我们需要WVS公开的小小的SDK,下载地址:http://www.acunetix.com/download/tools/WVSSDK.zip ,下载好了后解压bin目录下的WVSS.e......

科普专线

0
1. 防御基础   1.1. 攻击流量到底多大 谈到DDoS防御,首先就是要知道到底遭受了多大的攻击。这个问题看似简单,实际上却有很多不为人知的细节在里面。   以SYN Flood为例,为了提高发送效率在服务端产生更多的SYN等待队列,攻击程序在填充包头时,IP首部和TCP首部都不填充可选的字段,因此IP首部长度恰好是20字节,TCP首部也是20字节,共40字节。   对于以太网来说,最小的包长度数据段......

科普专线

0
1.   DDoS攻击基础 DDoS(Distributed Denial of Service,分布式拒绝服务)攻击的主要目的是让指定目标无法提供正常服务,甚至从互联网上消失,是目前最强大、最难防御的攻击之一。   按照发起的方式,DDoS可以简单分为三类。   第一类以力取胜,海量数据包从互联网的各个角落蜂拥而来,堵塞IDC入口,让各种强大的硬件防御系统、快速高效的应急流程无用武之地。这种类型的攻击典......

科普专线

0
去年在《凌云》杂志上写过一篇关于DDoS攻防的文章,在线版本可以到官方网站http://storage.aliyun.com/aliyun_portal_storage/lingyun/lingyun-journal-2.pdf查看。当时因为篇幅的原因有些细节没有展开,加上时间过去了大半年,出现了许多新的流行的攻击方式,所以决定写一篇补遗。 一、DRDoS攻击 DRDoS(分布式反射攻击)最早在2004年左右就出现了,安全焦点上还有一份国外的代码,可以在http:......

科普专线

0
 1.爬虫的介绍 图1-1  爬虫(spider)              网络爬虫(web spider)是一个自动的通过网络抓取互联网上的网页的程序,在当今互联网中得到越来越广泛的使用。这种技术一般用来爬取网页中链接,资源等,当然,更为高级的技术是把网页中的相关数据保存下来,成为搜索引擎,例如著名的google和百度。常见的爬虫应用还有像一淘这样的比价网站......

科普专线

0
这段时间在学Android应用开发,在想既然是用Java开发的应该很好反编译从而得到源代码吧,google了一下,确实很简单,以下是我的实践过程。 在此郑重声明,贴出来的目的不是为了去破解人家的软件,完全是一种学习的态度,不过好像通过这种方式也可以去汉化一些外国软件。 本文Android反编译教程,测试环境: Win7 Ultimate x64 Ubuntu 12.04 x86_x64 反编译工具包 下载&n......

科普专线

1
0×00 背景 提起浏览器的同源策略,大家都很熟悉。不同域的客户端脚本不能读写对方的资源。但是实践中有一些场景需要跨域的读写,所以出现了一些hack的方式来跨域。比如在同域内做一个代理,JSON-P等。但这些方式都存在缺陷,无法完美的实现跨域读写。所以在XMLHttpRequest v2标准下,提出了CORS(Cross Origin Resourse-Sharing)的模型,试图提供安全方便的跨域读写资源。目前主流浏览器均支持CORS。 0×0......

科普专线

1
0x00 目录 0x01 链接的构成 0x02 浏览器算如何对url进行解析的 0x03 链接真的只能是这样固定的格式么? 0x04 链接真的是你看到的那样么? 0x01 链接的构成 链接真的只能固定成我们常用的格式么? 不知道有多少人思考过这个问题!我们经常输入的格式一般都是www.xxxx.com! 或者再加上协议名 http https 端口以及路径什么的 或者再加上账号密码!如下图:  第一部分:协议名(以......

科普专线

0
目前安全测试的软件越来越多,也越来越强大,越来越多的人成为[黑客],今天在网上看到一个文章说拦截wvs的扫描,勾起了我写这篇文章的欲望。   因为公司的三大业务之一就有一个云waf,每天拦截的日志里面,有将近90%的请求是扫描器发出,waf接收到请求会解析数据包,然后过一遍规则,过完成百上千条规则必定对性能有一定的影响。如果能识别出来是人还是扫描器的请求,就可以在这方面节省......

科普专线

0
发现很多人在学习WebGoat上的HTTP Splitting教程之后有些疑惑,所以我也就在这里讨论一下这个问题。 HTTP Response Splitting翻译为HTTP应答拆分,是利用Web应用程序缺乏有效的输入验证,允许攻击者将CR 和LF 字符插入到应用程序响应的报头,从而将服务器的回应“拆分”成两个不同的HTTP 消息。攻击者通过发送一经过精心构造的HTTP请求,试图完全控制第二个响应来实现攻击。 一些Web 应用程序使用......