Linux下高级命令用法

grep

grep (缩写来自Globally search a Regular Expression and Print)是一种强大的文本搜索工具,它能使用特定模式匹配(包括正则表达式)搜索文本,并默认输出匹配行,grep和sed的区别在于,grep是以行为单位,进行字符串的对比,sed则可以进行删除、替换等更多的功能

语法:grep [-n] [-A] [-B] [–color==auto] ‘搜索的字符串’ filename

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
-c(count) :打印符合要求的行数

-i (ignore-case):忽略大小写

-n (line-number):在输出符合要求的行的同时连同行号一起输出

-v (invert-natch):打印不符合要求的行,反向选择

-A (after-context):后跟一个数字(有无空格都可以),例如 –A2则表示打印符合要求的行以及下面两行

-B (before-context):后跟一个数字,例如 –B2 则表示打印符合要求的行以及上面两行

-C (context):后跟一个数字,例如 –C2 则表示打印符合要求的行以及上下各两行

-E 与egrep执行模式相同,才能使用扩展的正则表达式
阅读全文
信息搜集常用工具总结

在这个阶段我们需要尽可能多的收集目标的信息,例如:域名的信息,DNS,IP,使用的技术和配置,文件,联系方式等等。在信息收集中,每一个信息都是重要的。

信息类型 获取方式 工具名称
域名 第三方在线查询、工具查询 whois、dig、host
子域名 查询、枚举、搜索引擎 dnsnum、Recon-ng、pen
敏感信息 搜索引擎、社工库 、数据泄露 shodan
指纹信息 cms识别、在线查询 Nmap、pen、whatapp
端口信息 查询、扫描 Nmap、shodan、zoomeye
社会工程学 钓鱼链接 Setools、Skipfish
公开信息 工具枚举、spider爬取 Thehavester、Metagoofil

信息收集的方式可以分为两种:主动和被动。主动的信息收集方式:通过直接访问、扫描网站,这种将流量流经网站的行为。被动的信息收集方式:利用第三方的服务对目标进行访问了解,比如:Google搜索引擎

阅读全文
渗透测试学习路线

总结

  1. 起始阶段选择一本书,一种教程去学习就可以了,千万不要变成搜集爱好者
  2. 多轮迭代去学习,遇到难点就跳过去,不要执着。回头再来。
  3. 学会看目录,整理知识要点。
  4. 把编程变成核心
  5. 练习,练习,再练习
  6. 编程是一门分水岭,选一门感兴趣的脚本语言学习,建议python
阅读全文
OWASP_TOP10漏洞及防范

A1 注入 Injection

Web安全头号大敌。注入攻击漏洞往往是应用程序缺少对输入进行安全性检查所引起的。攻击者把一些包含攻击代码当做命令或者查询语句发送给解释器,这些恶意数据可以欺骗解释器,从而执行计划外的命令或者未授权访问数据。注入漏洞通常能SQL查询、LDAP查询、OS命令、程序参数等中出现

防范

  1. 使用安全的API,避免使用解释器或提供参数化的接口(prepared statements,or stored procedures)
  2. 使用白名单来规范化的输入验证方法
  3. 对输入的特殊字符进行Escape转义处理
  4. 权限最小化,减轻被注入的影响
阅读全文
Linux下常用命令大全

常用命令

find

find 查找位置 -name 文件名

1
2
3
4
5
6
7
8
9
10
11
    -name 文件名      按照文件名查找
-user 用户名 按照属主用户名查找文件
-group 组名 按照属组组名查找文件
-size 按照文件大小k M 如:find / -size +50k
-type 按照文件类型查找(f=普通 d=目录 l=链接)
-perm 按照权限查找 如:find /root -perm 644
-iname 按照文件名查找,不区分大小写

示例:

find / -name aabbcc 查找/目录下名为 aabbcc的文件
阅读全文
Algolia