Resolución De Problemas De Picard Runtime.totalmemory La Forma Más Fácil

En esta guía de usuario única, identificaremos las causas posibles que podrían ser las principales para que se ejecute picard runtime.totalmemory y, finalmente, sugeriremos algunas terapias posibles que puede intentar eliminar para este problema.

No dejes que tu computadora te ralentice. Reimage puede acelerarlo en minutos

Informe de errores

Instrumentos interesados

Marcar duplicados

Versiones afectadas

picard runtime.totalmemory

Versión de Picard: 2.18.11
Usando Java 8u151

Descripción

Sigo recibiendo este error de proceso:

INFORMACIÓN 2018-08-29 11:58:12 MarkDuplicates Rastreando 2186445 dos sin emparejar en este momento. 117336 titulares en RAM.
info 2018-08-29 11:58:21 MarkDuplicates 489,000,000 registros judiciales leídos. Momento transcurrido: 00:58:09 s. Tiempo para continuar 1,000,000: 8 s — Posición última vista: chr8:15392138
INFO 11:58:21 2018-08-29 MarkDuplicates Seguimiento de 2186162 pares no emparejados en este momento. 114912 Acreditación en RAM.Ago
[casado hasta el 30 de 11:58:39 AEST de 2018] picard.sam.markduplicates.MarkDuplicates done. Tiempo transcurrido del día: 58,48 minutos.
Tiempo de ejecución.totalMemory()=954728448
Para brindar asistencia, consulte http://broadinstitute.github.io/picard/index.html#GettingHelp
Excepción en el subproceso “principal” java.lang.OutOfMemoryError: espacio del paquete Java
en java.lang.reflect.Array.newArray(método nativo)
en java.lang.reflect.Array.newInstance(Array.java:75)
en java.util.Arrays.parallelSort(Arrays.java:1178)
en htsjdk.samtools.util.SortingCollection.spillToDisk(SortingCollection.java:248)
en htsjdk.samtools.util.SortingCollection.add(SortingCollection.java:183)
en picard.sam.markduplicates.MarkDuplicates.buildSortedReadEndLists(MarkDuplicates.java:590)
en picard.sam.markduplicates.MarkDuplicates.doWork(MarkDuplicates.java:232)
en picard.cmdline.CommandLineProgram.instanceMain(CommandLineProgram.java:277)
en picard.cmdline.PicardCommandLine.instanceMain(PicardCommandLine.java:103)

Pasos de tiempo de juego

Estoy ejecutando un comando personalizado:
java -Xmx60g -jar picard.jar MarkDuplicates
ENTRADA=$BAM_DIR$TUMOR$ORDENAR
SALIDA=$BAM_DIR$TUMOR$SUFIJO
METRICS_FILE=$BAM_DIR$TUMOR$SUFFIX.metrics.txt
VALIDATION_STRINGENCY=Perdonar
TMP_DIR=$TMP_DIR

Comportamiento esperado

Hace un mes hice este exigente archivo BAM de 8 GB con las mismas opciones y con pocos o ningún problema.

Comportamiento real

Como arriba

¡Haga que su PC funcione como nueva en minutos!

¿Tu PC funciona lento, falla o te muestra la temida pantalla azul de la muerte? ¡No temas, porque la ayuda está aquí! Con Restoro, puede reparar rápida y fácilmente todo tipo de errores y problemas de Windows. El software también detectará y reparará las aplicaciones bloqueadas, protegerá sus archivos contra pérdida o robo y optimizará su PC para obtener el máximo rendimiento. Así que no sufra más con una computadora lenta o con errores: ¡descargue Restoro hoy mismo!

  • 1. Descargue e instale el software Reimage
  • 2. Abra el programa y siga las instrucciones en pantalla
  • 3. Seleccione los dispositivos que desea escanear y restaurar

  • ¡Gracias por la ayuda de su empresa!

    Hola a todos, primer post. ¡Gran sitio!

    Pensé en compartir un nuevo problema… Las herramientas especializadas de Picard (versión 56) se vuelven redundantes con facilidad y además, como era de esperar, tengo problemas de memoria…

    Pero bastante uno con una cantidad, como esperaba (y en realidad lo entendí de inmediato). En cambio, me estoy quedando sin espacio en disco. Uno de los propios archivos .bam personales es muy pesado, pero esto sucede incluso con archivos .bam considerablemente más pequeños que contienen pares individuales.

    Aumenté itgo a 1 g (-XX: PermSize = 1 g -XX: MaxPermSize = 1 g) y continúa muriendo, aunque después de 2 horas con respecto al tiempo de CPU es más como diez minutos en términos de minutos, por ejemplo antes. Ahora actualicé el software de una persona a 4g y veré qué sucede.

    ¿Esta función causa problemas de acumulación en las herramientas de Picard para que el montón constante sea tan completo? Esto parece estar muy lejos de lo que espera la JVM y rara vez he experimentado los problemas de espacio PermGen mencionados, nunca con las herramientas de Picard.

    Bien hecho

    Doug

    [Lunes 21 de noviembre 19:11:40 CET 2011] net.sf.picard.sam.MarkDuplicates INPUT=map.CLCh001.lib300.bam_sorted.bam OUTPUT=map.CLCh001.lib300.bam_sorted.bam.PicardDups.bam METRICS_FILE implica mapa .CLCh001.lib300.bam_sorted.bam.MarkDuplicates REMOVE_DUPLICATES = ASSUME_SORTED significa true true MAX_SEQUENCES_FOR_DISK_READ_ENDS_MAP = 50000000 es igual a 10.000.000 = 80.000 MAX_FILE_HANDLES_FOR_READ_ENDS_MAP MAX_RECORDS_IN_RAM tmp_dir = [TMP] SORTING_COLLECTION_SIZE_RATIO = 0,25 READ_NAME_REGEX = [a-Za-Z0-9] + [ 3 -9] :([0-9]+):([0-9]+):([0-9]+).* OPTICAL_DUPLICATE_PIXEL_DISTANCE=100 VERBOSITY=INFO SILENCIO=false VALIDATION_STRINGENCY=ESTRICT COMPRESSION_LEVEL= 5 CREATE_MD5_FILE= falso
    [Mi create_index=false 21 de noviembre 19:11:40 CET 2011] Ejecutándose trabajando con [email protected] en Linux 2.6.32-131.17.1.el6.x86_64 amd64; OpenJDK 1.6.0_20-b20 Servidor de máquina virtual de 64 bits
    INFO 2011-11-21 07:11 PM MarkDuplicates Ejecutando doWork freeMemory: 132124215176; Memoria total: 132857659392; capacidad máxima para recordar: 132857659392
    INFO 2011-11-21 07:11:40 PM MarkDuplicates Lectura del archivo de entrada y generación de información de finalización extraída.
    INFO 2011-11-21 07:11:40 PM MarkDuplicates Almacena hasta 527212934 objetivos de historial antes de confirmar en el disco.Nov
    [Lunes 20 aproximadamente 21:44:56 CET 2011] Examinó net.sf.picard.sat.MarkDuplicates. Tiempo transcurrido: 153,26 minutos.
    Tiempo de ejecución.totalMemory()=132857659392
    Excepción en la ubicación cuidadosa “principal” java.lang.OutOfMemoryError: PermGen space
    en java.lang.String.intern (método nativo)
    En net.sf.samtools.SAMSequenceRecord.(SAMSequenceRecord.java:83)
    siguiendo esto a net.sf.samtools.SAMTextHeaderCodec.parseSQLine(SAMTextHeaderCodec.java:205)
    completamente en net.sf.samtools.SAMTextHeaderCodec.decode(SAMTextHeaderCodec.java:96)
    en línea.sf.samtools.BAMFileReader.readHeader(BAMFileReader.java:391)
    a net.sf.samtools.BAMFileReader.(BAMFileReader.java:144)
    totalmente desde net.sf.samtools.BAMFileReader.(BAMFileReader.java:114)
    en net.sf.samtools.SAMFileReader.init(SAMFileReader.java:514)
    En net.sf.samtools.SAMFileReader.(SAMFileReader.java:167)
    – net.sf.samtools.SAMFileReader.(SAMFileReader.java:122)
    entrando en net.sf.picard.sam.MarkDuplicates.buildSortedReadEndLists(MarkDuplicates.java:267)
    En net.sf.picard.sam.MarkDuplicates.doWork(MarkDuplicates.java:117) y en net.sf.picard.cmdline.CommandLineProgram.instanceMain(CommandLineProgram.java:175) mientras que net.sf.picard.sam.MarkDuplicates . principal(MarkDuplicates.java:101)

    Hola Doug,

    Tuve el mismo problema y lo resolví mediante -XX:MaxPermSize=512m

    Has probado con 1 g, por lo que para que parezca que solo necesitas aumentar esa dosis aún más… ¿fueron suficientes 4 g?

    picard runtime.totalmemory

    Hola, por supuesto, 4 GB fueron suficientes. Que yo recuerde, murió con 2 GB. El mayor problema fue obtener suficiente espacio de almacenamiento, 256 GB tuvieron que comprarse si y creo que todas nuestras estadísticas htop usaron 221 GB desde el mejor punto seguro 🙂

    /Doug

    El siguiente suele ser el resultado específico de picards_markduplicates. Cambié algunos parámetros a grandes números, pero desafortunadamente todavía da un error de vida diaria.
    Mi archivo tiene unos 10 GB y, por lo tanto, el programa se ejecutaba en el tipo 1.50 con 24 GB de RAM usando la versión 1.49. Por favor ayude a mi familia a resolver el problema. Muchas gracias

    net.sf.picard.sam.MarkDuplicates EN = = es igual a accepted_hits_sorted.bam accepted_hits_sorted.pk.mk.out METRICS_FILE accepted_hits_sorted.pk.mk.metrics = sentida ASSUME_SORTED MAX_SEQUENCES_FOR_DISK_READ_ENDS_MAP = 500000000 = una sola = 500000000 MAX_FILE_HANDLES_FOR_READ_ENDS_MAP MAX_RECORDS_IN_RAM = artificial REMOVE_DUPLICATES SORTING_COLLECTION_SIZE_RATIO = 0.25 READ_NAME_REGEX=[a-zA-Z0-9]+:[0-9]:([0-9]+):([0-9]+):([0-9]+ ). 5 . OPTICAL_DUPLICATE_PIXEL_DISTANCE=100 TMP_DIR=/tmp/tangwei VERBOSITY=INFO QUIET=false VALIDATION_STRINGENCY=ESTRICT COMPRESSION_LEVEL=5 CREATE_INDEX=false Feb create_md5_file=false
    [Viernes 2012 4:06:12 pm horas EDT] Ejecutándose como [email protected] en Linux 2.6.18-128.el5 Java i386; Servidor HotSpot(TM) comprometido máquina 1.7.0_02-b13
    INFO 03-02-2012 16:06 MarkDuplicates inicia doWork freeStorage: 63278136; Memorias totales: 64356352; 1908932608
    maxMemory INFO: 2012-02-03 16:06:12 MarkDuplicates Leyendo el archivo de entrada y creando información para leer y cerrar.

    [Windows] Este software reparará su computadora y lo protegerá de errores.