用python实现wireshark的follow tcp stream功能


长话短说,wireshark有一个follow tcp stream功能,这个功能很方便。美中不足的是提取出的stream 数据没有时间戳等其他信息,在分析数据的延时和丢包问题时就有些力不从心了。这里简单用python实现了一个简单follow tcp stream功能,同时保留了tcp信息。

 

原理很简单,仍然是基于wireshark,里面有一个Export packet dissection as XML ‘pdml’ file。 导出来之后的文件内容是这个样子的:

 

 

 

看到上面的内容,我想什么都不用说了。用python简单的做个xml文件解析,将数据提取出来就可以了。

那么剩下的一个问题就是follow tcp stream 这个算法如何实现?本质就是一个tcp数据如何重组的过程,具体可以参考这篇博文TCP数据包重组实现分析

这里,简单起见,我做了一些约束:

 

只能提取A-->B这样的单个方向的数据。如果需要提取B-->A的数据,可以重新过滤一下数据,然后执行一次脚本。忽略最开头的syn包和断开连接时的Fin包。 基于上面两个简化,实际算法可以简化为根据tcp帧中的seq,从小到大排序。简单举个例子:有三个tcp包,按seq排序后如下样子

 

(seq=1, nxtseq=5, data='1234') , (seq=4, nxt=6, data='45') , (seq=7,nxt=8, data='7')

第一个数据包的nxtseq > 第二个数据的seq,说明两个数据包之间有数据重复,事实也是如此,重复了数字‘4’

第二个数据包的nxtseq < 第三个数据包的seq,说明这两个数据包之间有丢帧。事实也是如此,丢失了数字‘6’

好了,原理就介绍到这儿。

 

剩下稍微介绍一下wireshark过滤规则和这个算法的局限性

 

按照ip过滤某个方向的数据,一般可以使先执行wireshark的follow tcp stream功能,一般在filter一栏会有这样一个表达式 tcp.stream eq xxx。在这个表达式的后面可以继续跟上ip过滤的表达式: tcp.steam eq xxx and ip.src==xxx and ip.dst==xxx按照tcp端口号过滤某个方向的数据。首先同ip过滤,先固定到一条tcp连接上,得到tcp.stream eq xxx。 然后加上端口过滤:tcp.stream eq xxx and tcp.srcport==xxx and tcp.dstport==xxx这个工具的局限性,因为是基于python element tree 对xml文件进行解析和数据提取,所以即使是解析100M的pcap文件,首先生成的pdml文件就会暴增到几百兆,然后这几百兆的文件又要被读入内存,(python element tree的特点),总计下来就是生成pdml文件有点慢(几分钟),内存消耗特大,几百兆。

 

 

最后简单贴一些关键代码。完整的脚本可以从这里免费下载 TCPParser -- follow tcp stream by python

这是从pdml文件的某个proto中提取需要的元素信息。

 

def extract_element(self, proto, elem):
        result = dict()
        for key in elem.keys():
            result[key]=
        
        fieldname   = 
        attribname  =     
        for field in proto.findall(field):
            fieldname = field.get('name')
            if fieldname in elem:
                attribname = elem[fieldname]
                result[fieldname] = field.get(attribname, '')
                
        return result


 

 

def regularize_stream(self, frame_list):
        '''
                    正则化tcp stream的数据,主要是根据seq,nxtseq补上缺少的segment,以及删除重复的数据
                    不少缺少的segment时,data为空,frame.number='lost'
                    删除重复的数据时,尽可能保留较早之前收到的数据,也就是前一个包的数据
        '''
        self.reporter.title(TCPParser regularize timestamp)
        timer = Timer(regularize_stream_data).start()
        reg_frame_list = []
        expectseq = -1
        first = True
        for frame in frame_list:
            if first:
                # 第一个数据包
                first = False
                expectseq = frame[tcp.nxtseq]
                reg_frame_list.append(frame)
                continue
            
            # 从第二个数据包开始
            seq = frame[tcp.seq]
            nxtseq = frame[tcp.nxtseq]
            if seq == expectseq :
                # 数据刚好,完全连续,不多不少
                if nxtseq == 0: continue # 表示ack包,无意义
                expectseq = nxtseq
                reg_frame_list.append(frame)
            elif seq > expectseq:
                # 数据有缺失,说明丢包了
                self.reporter.error(previous tcp segment is lost:  + str(frame[TCPFrame.KEY_FRAMENo]))
#                newpacket = self.new_lost_packet(frame, str(expectseq), str(seq))
#                reg_frame_list.append(newpacket)
                reg_frame_list.append(frame)
                expectseq = nxtseq
                
            elif seq < expectseq:
                # 数据有重叠,数据重传时补传过多数据了
                self.reporter.warning(tcp segment retransmission:  + str(frame[TCPFrame.KEY_FRAMENo]))
                if expectseq < nxtseq:
                    # 当前数据包需要舍弃一部分内容
                    # pre_packet[-(expectseq-seq):-1] == frame[0:expectseq-seq]
                    frame[tcp.seq] = expectseq 
                    frame[data] = frame[data][expectseq-nxtseq:]
                    frame[datalen] = len(frame[data])
                    expectseq = nxtseq
                    reg_frame_list.append(frame)
                else:
                    # 当前数据包的内容可以完全舍弃
                    # expectseq 保持不变
                    # pre_packet[-(nxtseq-seq):] = frame[:nextseq-seq]
                    pass
        timer.stop()        
        return reg_frame_list


 

 

相关内容

    暂无相关文章

评论关闭