大佬们怼网站已经怼的很凶了,实在无从下手的时候,可以从app上测测,除了平时的APP抓包,我们还可以逆向app从而找到一些没人怼过api或者服务器。
首先关于app的逆向方面,我推荐两个工具
apktools和Android逆向助手
我们之间用apktools逆向app即可
apktool d app-release.apk
在逆向之后会发现文件夹里有smali_classes文件夹,这里存放了一些后缀为.smali文件,
在这里可以找到一些url,但是由于内容太多,一个个点开很麻烦,我写了个小python脚本,把里面的url提取出来
!!不过注意我这个脚本跑的挺慢的,例如smali_classes1 smali_classes2,脚本放在这种里面的文件夹内,不然要跑多久我也不知道!!
get_url.py python2
#coding=utf-8
import os
import re
result = []
def get_all(cwd):
global text
get_dir = os.listdir(cwd) #遍历当前目录,获取文件列表
for i in get_dir:
sub_dir = os.path.join(cwd,i) # 把第一步获取的文件加入路径
if os.path.isdir(sub_dir): #如果当前仍然是文件夹,递归调用
get_all(sub_dir)
else:
ax = os.path.basename(sub_dir) #如果当前路径不是文件夹,则把文件名放入列表
result.append(ax)
#打开文件叠加读取
f=open(sub_dir,"r")
text=text+f.read()
def write_url():
pattern = re.compile(r'http[s]?://(?:[a-zA-Z]|[0-9]|[[email protected]&+]|[!*\(\),]|(?:%[0-9a-fA-F][0-9a-fA-F]))+')
url = re.findall(pattern,text)
f2 = open("url.txt","w+")
f2.writelines([line+'\n' for line in url])
if __name__ == "__main__":
cur_path = os.getcwd() #当前目录
text=""
get_all(cur_path)
write_url()
然后ctrl+shift+s就可以全局搜索url,然后读他源码来看看需要传入什么参数
关于目录爆破的一点小脚本
在查找到一些子域名之后,不妨之间爆破一些他的目录,有时候可能会有意外发现
我会在我的服务器上运行一个小shell脚本来对这些子域名进行目录扫描,我用的是dirsearch https://github.com/maurosoria/dirsearch
dir.sh
for line in `cat url`
do
timeout 300s python3 dirsearch.py -u $line -e *
done
目录下有url这个文件,他存放着一些我们的url,可以是平时的子域名,也可以是上面的逆向出来的一些url,dirsearch一般不用太长时间就可以跑完,扫崩了的情况可以用timeout来限制他跑一次的时间,这样就不怕卡死了。
dirsearch扫描结果在reports文件夹下,可以切换进去
然后用个类似上面的脚本来把这些扫描结果整合在一起
reports.py
#coding=utf-8
import os
result = []
def get_all(cwd):
global text
get_dir = os.listdir(cwd) #遍历当前目录,获取文件列表
for i in get_dir:
sub_dir = os.path.join(cwd,i) # 把第一步获取的文件加入路径
if os.path.isdir(sub_dir): #如果当前仍然是文件夹,递归调用
get_all(sub_dir)
else:
ax = os.path.basename(sub_dir) #如果当前路径不是文件夹,则把文件名放入列表
result.append(ax)
#打开文件叠加读取
f=open(sub_dir,"r")
text=text+f.read()
if __name__ == "__main__":
cur_path = os.getcwd() #当前目录
text=""
get_all(cur_path)
rs=open("rs.txt","w+")
rs.write(text)
然后得到扫描结果rs,txt 这样就可以直接查看所有扫描结果了
小弟不才,不会太多自动化的东西,只能用点小脚本来代替重复劳动,第一次发帖,大佬们多多包涵。
作者:lego,文章转自lego's blog,见原文链接