Solução De Problemas Picard Runtime.totalmemory A Maneira Mais Fácil

Neste guia do usuário, identificaremos uma pequena quantidade de possíveis causas que podem estar causando a execução do picard runtime.totalmemory e, portanto, sugerimos algumas possíveis correções que você pode tentar resolver para esse problema.

Não deixe seu computador te deixar lento. Reimage pode acelerar de volta em minutos

Relatório de erros

Instrumentos interessados

Marcar duplicatas

Versões afetadas

picard runtime.totalmemory

Versão Picard: 2.18.11
Usando Java 8u151

Descrição

Continuo recebendo este excelente erro:

INFORMAÇÕES 2018-08-29 11:58:12 MarkDuplicates Rastreamento 2186445 pares não pareados no momento. 117336 prateleira na RAM.
info 2018-08-29 11:58:21 MarkDuplica 489.000.000 registros judiciais lidos. Tempo valioso decorrido: 00:58:09 s. Tempo para continuar trabalhando por 1.000.000: 8 s — Última passagem da posição: chr8:15392138
INFO 11:58:21 2018-08-29 MarkDuplicates Rastreando 2186162 pares não pareados no momento. 114912 Acreditação na RAM.Aug
[casado até trinta 11:58:39 AEST 2018] picard.sam.markduplicates.MarkDuplicates concluídos. Tempo decorrido do dia: 58,48 minutos.
Runtime.totalMemory()=954728448
Para obter o guia, consulte http://broadinstitute.github.io/picard/index.html#GettingHelp
Exceção no encadeamento “principal” java.lang.OutOfMemoryError: espaço do pacote Java
em java.lang.reflect.Array.newArray(método nativo)
em java.lang.reflect.Array.newInstance(Array.java:75)
em java.util.Arrays.parallelSort(Arrays.java:1178)
em htsjdk.samtools.util.SortingCollection.spillToDisk(SortingCollection.java:248)
em htsjdk.samtools.util.SortingCollection.add(SortingCollection.java:183)
em picard.sam.markduplicates.MarkDuplicates.buildSortedReadEndLists(MarkDuplicates.java:590)
em picard.sam.markduplicates.MarkDuplicates.doWork(MarkDuplicates.java:232)
em picard.cmdline.CommandLineProgram.instanceMain(CommandLineProgram.java:277)
em picard.cmdline.PicardCommandLine.instanceMain(PicardCommandLine.java:103)

Etapas do tempo de jogo

Estou executando um comando de driver:
java -Xmx60g -jar picard.jar MarkDuplicates
INPUT=$BAM_DIR$TUMOR$SORT
SAÍDA=$BAM_DIR$TUMOR$SUFFIX
METRICS_FILE=$BAM_DIR$TUMOR$SUFFIX.metrics.txt
VALIDATION_STRINGENCY=Perdoar
TMP_DIR=$TMP_DIR

Comportamento esperado

Eu executei esse tipo de arquivo BAM de 8 GB no último mês com os mesmos locais e com poucos ou poucos problemas.

Comportamento real

Como acima

Tenha seu PC funcionando como novo em minutos!

Seu PC está lento, travando ou dando a temida Tela Azul da Morte? Não tenha medo, pois a ajuda está aqui! Com o Restoro, você pode reparar rápida e facilmente todos os tipos de erros e problemas do Windows. O software também detectará e corrigirá aplicativos travados, protegerá seus arquivos contra perda ou roubo e otimizará seu PC para obter o máximo desempenho. Portanto, não sofra mais com um computador lento ou com bugs - baixe o Restoro hoje mesmo!

  • 1. Baixe e instale o software Reimage
  • 2. Abra o programa e siga as instruções na tela
  • 3. Selecione os dispositivos que você deseja verificar e restaurar

  • Obrigado por uma nova ajuda!

    Olá a essencialmente todos, primeiro post. Ótimo site!

    Pensei em compartilhar um novo problema… Os itens do Picard (versão 56) ficam redundantes facilmente além disso, sem surpresa estou tendo problemas de memória…

    Mas aquele com muito, como eu esperava (e não considerou imediatamente entender). Em vez disso, estou executando prontamente disponível de espaço em disco. Um de todos os meus arquivos .bam pessoais é muito grande, mas isso acontece mesmo com arquivos .bam muito menores contendo acabamentos únicos de pares de mate.

    Aumentei para 1g (-XX:PermSize=1g -XX:MaxPermSize=1g) e até hoje morreu, embora depois de 2 horas fora do tempo de CPU seja mais como dez minutos em termos de minutos que queria antes. Agora atualizei o software geral para 4g e vou aproveitar o que acontece.

    Esta função causa problemas de armazenamento nas ferramentas Picard que tornam o heap constante tão saciado? Isso parece ser muito anterior ao que a JVM espera e raramente experimentei os problemas de espaço mencionados do PermGen, nunca com as ferramentas Picard.

    Muito bem

    Douglas

    [Seg 21 de novembro 19:11:40 CET 2011] net.sf.picard.sam.MarkDuplicates INPUT=map.CLCh001.lib300.bam_sorted.bam OUTPUT=map.CLCh001.lib300.bam_sorted.bam.PicardDups.bam METRICS_FILE é igual ao mapa .CLCh001.lib300.bam_sorted.bam.MarkDuplicates REMOVE_DUPLICATES = ASSUME_SORTED significa verdadeiro verdadeiro MAX_SEQUENCES_FOR_DISK_READ_ENDS_MAP = 50000000 10000000 igual a = 80,000 MAX_FILE_HANDLES_FOR_READ_ENDS_MAP MAX_RECORDS_IN_RAM TMP_DIR = [TMP] SORTING_COLLECTION_SIZE_RATIO = 0,25 READ_NAME_REGEX = [A-Za-Z0-9] + [- zero 9] :([0-9]+):([0-9]+):([0-9]+).* OPTICAL_DUPLICATE_PIXEL_DISTANCE=100 VERBOSITY=INFO QUIET=false VALIDATION_STRINGENCY=STRICT COMPRESSION_LEVEL= 5 CREATE_MD5_FILE= false < br>[My create_index=false 21 de novembro 19:11:40 CET 2011] Executando usando [email protected] no Linux 2.6.32-131.17.1.el6.x86_64 amd64; Servidor de máquina virtual OpenJDK 1.6.0_20-b20 de 64 bits
    INFO 2011-11-21 07:11 PM MarkDuplicates Executando doWork freeMemory: 132124215176; Memória total: 132857659392; disco rígido máximo: 132857659392
    INFO 2011-11-21 07:11:40 PM MarkDuplicates Lendo o arquivo de entrada e gerando informações de conclusão de leitura inicial.
    INFO 2011-11-21 07:11:40 PM MarkDuplicates Armazena até 527212934 sugestões de histórico antes de confirmar no disco.Nov
    [Seg por volta de 20 21:44:56 CET 2011] Examinado net.sf.picard.sat.MarkDuplicates. Tempo decorrido: 153,26 minutos.
    Runtime.totalMemory()=132857659392
    Exceção na linha cuidadosa “main” java.lang.OutOfMemoryError: PermGen space
    dentro de java.lang.String.intern (método nativo)
    Em net.sf.samtools.SAMSequenceRecord.(SAMSequenceRecord.java:83)
    o próximo a net.sf.samtools.SAMTextHeaderCodec.parseSQLine(SAMTextHeaderCodec.java:205)
    disponível em net.sf.samtools.SAMTextHeaderCodec.decode(SAMTextHeaderCodec.java:96)
    online.sf.samtools.BAMFileReader.readHeader(BAMFileReader.java:391)
    para net.sf.samtools.BAMFileReader.(BAMFileReader.java:144)
    retirado de net.sf.samtools.BAMFileReader.(BAMFileReader.java:114)
    em net.sf.samtools.SAMFileReader.init(SAMFileReader.java:514)
    Em net.sf.samtools.SAMFileReader.(SAMFileReader.java:167)
    para ter certeza de que você net.sf.samtools.SAMFileReader.(SAMFileReader.java:122)
    indo e net.sf.picard.sam.MarkDuplicates.buildSortedReadEndLists(MarkDuplicates.java:267)
    Em net.sf.picard.sam.MarkDuplicates.doWork(MarkDuplicates.java:117) e em net.sf.picard.cmdline.CommandLineProgram.instanceMain(CommandLineProgram.java:175) enquanto em net.sf.picard.sam.MarkDuplicates .main(MarkDuplicates.java:101)

    Olá, Douglas,

    Eu tive o mesmo problema e resolvi com a ajuda de -XX:MaxPermSize=512m

    Você já experimentou 1g, então parece que você só precisa aumentar ainda mais essa dose… 4g foi suficiente?

    picard runtime.totalmemory

    Olá, claro, 4 GB foram suficientes. Pelo que me lembro, ele morreu com 2 GB. O maior problema foi obter uma quantidade suficiente de espaço de armazenamento, 256 GB tiveram que acabar sendo comprados se e acredito que todas as estatísticas do htop usaram 221 GB a partir de um novo ponto 🙂

    /Doug

    A seguir está minha saída específica de picards_markduplicates. Alguns parâmetros foram alterados para números grandes, mas mesmo assim, ainda dá um erro de vida inteira.
    Meu arquivo tem cerca de 10 GB além disso o programa estava rodando no estilo 1.50 com 24 GB de RAM usando a versão 1.49. Por favor, ajude minha rotina a resolver o problema. Muito obrigado

    net.sf.picard.sam.MarkDuplicates OUT IN = = equivale a accepted_hits_sorted.bam accepted_hits_sorted.pk.mk.out METRICS_FILE accepted_hits_sorted.pk.mk.metrics = legítimo ASSUME_SORTED MAX_SEQUENCES_FOR_DISK_READ_ENDS_MAP = 500000000 = um, 000 = 500000000 MAX_FILE_HANDLES_FOR_READ_ENDS_MAP MAX_RECORDS_IN_RAM = REMOVE_DUPLICATES imprecisos SORTING_COLLECTION_SIZE_RATIO =0,25 READ_NAME_REGEX=[a-zA-Z0-9]+:[0-9]:([0-9]+):([0-9]+):([0-9]+ ). 3 . OPTICAL_DUPLICATE_PIXEL_DISTANCE=100 TMP_DIR=/tmp/tangwei VERBOSITY=INFO QUIET=falso VALIDATION_STRINGENCY=STRICT COMPRESSION_LEVEL=5 CREATE_INDEX=falso Fev create_md5_file=false
    [Sexta-feira 2012 04:06:12 EDT] Executando como [email protected] no Linux 2.6.18-128.el5 Java i386; Máquina de rede do servidor HotSpot(TM) 1.7.0_02-b13
    INFO 02-03-2012 04:06 PM MarkDuplicates inicia doWork freeArmazenamento: 63278136; Memória total: 64356352; 1908932608
    maxMemory INFO: 2012-02-03 16:06:12 MarkDuplicates Ler o arquivo de entrada e produzir informações para leitura e fechamento.

    [Windows] Este software consertará seu computador e o protegerá contra erros.