We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
您好,我在用SOAPnuke version2.1.7过滤二代数据时,因需要合并两次下机的数据,我使用了zcat合并再gzip压缩的方法合并了rawdata去跑fiilter,之后觉得zcat太慢了,直接使用cat合并了两次下机的fq.gz去跑filter;但最后发现使用zcat合并和cat合并跑filter的结果是不同的,这个是为什么呢,后来跑了两遍zcat发现跑两次zcat的结果是一样的,说明过滤计算可重现的。我也比较了zcat和cat合并后解压出来的fastq,发现是一样的呀,但为什么两种方法合并的数据跑filter得到了两种不同的结果呢,是程序内部解压的方式的原因吗,还是有其他原因呢,使用cat合并fq.gz的数据跑filter的结果可以使用吗?
SOAPnuke version2.1.7
zcat
gzip
fiilter
cat
fq.gz
filter
fastq
The text was updated successfully, but these errors were encountered:
您好,"我也比较了zcat和cat合并后解压出来的fastq,发现是一样的呀",您说的一样是怎么判断的,两者的md5码一样吗?另外,如果是多个fastq输入文件,可以直接以文件列表形式输入的,在config里配置inputAsList参数,不用提前合并文件
Sorry, something went wrong.
我是用两种方法
还有另外一个不相关的问题,就是我过滤后得到的fq1和fq2文件的reads顺序会被打乱,这个是正常的结果吧?
No branches or pull requests
您好,我在用
SOAPnuke version2.1.7
过滤二代数据时,因需要合并两次下机的数据,我使用了zcat
合并再gzip
压缩的方法合并了rawdata去跑fiilter
,之后觉得zcat
太慢了,直接使用cat
合并了两次下机的fq.gz
去跑filter
;但最后发现使用zcat
合并和cat
合并跑filter
的结果是不同的,这个是为什么呢,后来跑了两遍zcat
发现跑两次zcat
的结果是一样的,说明过滤计算可重现的。我也比较了zcat
和cat
合并后解压出来的fastq
,发现是一样的呀,但为什么两种方法合并的数据跑filter
得到了两种不同的结果呢,是程序内部解压的方式的原因吗,还是有其他原因呢,使用cat
合并fq.gz
的数据跑filter
的结果可以使用吗?The text was updated successfully, but these errors were encountered: