Question:
J'ai besoin d'examiner un fichier texte de 82,7 Go (!). Qu'est-ce qui peut l'ouvrir?
hbquikcomjamesl
2020-02-16 23:27:01 UTC
view on stackexchange narkive permalink

Nous avons récemment eu un effondrement d'un serveur Tomcat, qui a produit un fichier journal "catalina.out" de 82,7 Go, que j'ai enregistré pour une analyse médico-légale.

Quels éditeurs macOS peuvent ouvrir des fichiers texte monstrueux sans consommer 80 Go de RAM ou provoquer des blocages de 15 minutes?

Avez-vous besoin de lire le fichier pour le parcourir à la recherche de détails intéressants ou de défauts ou devez-vous rechercher le fichier?Le fichier a-t-il un horodatage cohérent?Les réponses ci-dessous conviennent toutes, mais à plus de 80 Go, vous devriez envisager des techniques d'analyse de journal et de recherche pour trouver les données dont vous avez besoin pour votre analyse.Un exemple, mais hors sujet, question est https://serverfault.com/questions/63297/good-free-tomcat-log-analyser
Voir aussi: https://askubuntu.com/questions/28847/text-editor-to-edit-large-4-3-gb-plain-text-file et https://vi.stackexchange.com/questions/149/how-can-i-open-very-large-files-with-good-performance
Serait-il raisonnable d'écrire un analyseur pour le fichier qui extrait les enregistrements et les ajoute sous forme de lignes dans une base de données?Les bases de données sont conçues pour trier et rechercher efficacement des millions d'enregistrements;les éditeurs de texte ne le sont pas.
Treize réponses:
79E09796
2020-02-17 18:01:34 UTC
view on stackexchange narkive permalink

moins de nom de fichier

Depuis la ligne de commande, il vous permet de visualiser les fichiers immédiatement sans charger le fichier complet en mémoire.

GNU less utilise uniquement une valeur par défaut de 64 Ko d'espace tampon lors de la visualisation d'un fichier arbitrairement volumineux.Je suppose que le moins dans macos fait la même chose, c'est donc une excellente réponse.less a également une recherche regex, vous permettra de paginer à travers le fichier, et bien plus encore.
C'est exactement ce pour quoi «plus» et ensuite «moins» ont été faits.De nombreuses touches de raccourci de navigation également.L'ensemble d'outils Unix est très utile et mérite d'être appris.
@WayneConrad `less` n'est pas un programme standard avec plusieurs implémentations;`less` * est * le pager GNU basé sur` more`, et est ce qui est livré avec macOS.
+1 ici pour simplifier, ce n’est pas un éditeur, ce qui a été demandé, mais c’est super pragmatique et un peu enfoui dans ma réponse.
Je doute que l'utilisateur moyen de macOS réfléchisse trop attentivement à ce que signifie _editing_ lorsqu'il utilise de toute façon des mots comme _editor_.OP peut très bien avoir simplement signifié _viewer_ ou _pager_.+1
"La dernière chose dont je me souviens, j'étais en train de restaurer" | plus "..." Ayez mon +1!
«moins» est «plus»
Tim Seed
2020-02-17 16:08:01 UTC
view on stackexchange narkive permalink

Je n'essaierais pas de l'ouvrir ... Je préfère le faire:

  1. grep - recherchez du texte
  2. split - découpez le fichier en morceaux de 10 Mo, par exemple.

Quelque chose comme:

  grep "crash" My80GbFile.txt |plus
 

Si le gros fichier n'est pas "délimité par une ligne"

  split -b 10M My80GbFile.txt
 

Mais si le gros fichier est juste une charge de lignes, alors (comme cela a été publié), divisé par ligne (100 000 par sous-fichier) dans ce cas.

  split -l 100000 My80GbFile.txt
 
Vous voudrez peut-être utiliser `grep -C5 crash` juste pour avoir quelques lignes de contexte au-dessus et en dessous de chaque correspondance.
Ce.* N'ouvrez pas * un fichier de 85 Go dans un éditeur.Débarrassez-vous d'abord de toutes les peluches (sans compromettre le fichier d'origine, bien sûr).Si le fichier est volumineux en raison d'une longue durée de journalisation, vérifiez l'heure proche de l'incident.S'il est gros parce qu'il s'agit d'un instantané d'un énorme état du système, par exempledécharge une base de données ou autre, essayez de vous concentrer sur les données pertinentes.
Si le fichier est composé de lignes, au lieu de `split -b`, il vaudrait mieux faire` split -l`.Sinon, vous diviseriez les lignes en deux.
Je suggérerais `grep" crash "My80GbFile.txt |less` au lieu de `grep" crash "My80GbFile.txt |more`, juste pour faciliter la navigation et l'utilisation de la recherche avec la touche `/`.
bmike
2020-02-17 00:36:20 UTC
view on stackexchange narkive permalink

En ce qui concerne vos besoins immédiats, le meilleur éditeur visuel gratuit pour macOS est BBEdit (lié au téléchargement du Mac App Store) et il fait tellement - une véritable centrale électrique. Une fois que vous l'avez, vous pouvez également payer pour les fonctionnalités pro / automatisation / par gratitude, mais c'est gratuit pour toujours si vous le souhaitez et aimez ce prix.

J'utilise également vi pour éditer des choses, mais cela ouvre une boîte de vers pour avoir besoin du shell, de l'application de terminal ou d'une autre application et que certains étudient pour apprendre comment quitter l'éditeur (tldr; essayez ZZ ou ZQ), personnalisez-le et apprenez à votre cerveau à penser à opérer sur du texte dans l'abstrait plutôt qu'à utiliser la souris pour sélectionner des éléments. En outre, un pager comme less ou more ou bat est également très convivial pour démarrer et naviguer dans des fichiers volumineux. (Et bat vous donne des ailes superbes couleurs et connaissance de la syntaxe).

  brew install bat
 

Dans votre cas, l'application console fournie avec macOS pourrait également valoir la peine d'être examinée si vous pouvez y utiliser la fonctionnalité de recherche. Lancez l'application à partir des projecteurs et faites glisser votre fichier monstre sur la fenêtre pour avoir un aperçu.

+1 pour BBEdit - l'équipe BareBones a spécifiquement optimisé cette application pour gérer les fichiers texte massifs au fil des ans.
Veuillez ajouter si cet éditeur peut réellement ouvrir un fichier journal "catalina.out" 82.7G.Et si cela nécessite 85G de RAM.
@reinierpost La probabilité que quelqu'un ait un énorme fichier journal est mince.Je ne suis pas sûr que quiconque mais le demandeur puisse le confirmer correctement.
@T.J.L.Cela n'a pas besoin d'être confirmé.C'est indiqué ici même dans la question.Une réponse est censée répondre à la question posée.
Vim sur Linux peut être utilisé pour éditer des fichiers très volumineux, mais vous devez savoir comment faire cela avant d'essayer de les ouvrir, et vous devrez peut-être désactiver les plugins, etc.https://stackoverflow.com/questions/908575/how-to-edit-multi-gigabyte-text-files-vim-doesnt-work Je suppose que mac os est une histoire similaire.Je ne le recommanderais pas vraiment malgré le fait que vim soit mon éditeur de texte préféré.
@T.J.L.[Biais de confirmation] (https://en.wikipedia.org/wiki/Confirmation_bias) Plus ils obtiennent de votes positifs, plus ils reçoivent de votes positifs futurs.En outre, ils sont un "modérateur de réputation 181K" de _apple_ SE.C'est un gros poisson dans un petit étang.Je n'ai pas personnellement essayé BBEdit, mais j'ai essayé d'utiliser «less» et «more» avec des fichiers volumineux, et ce n'est pas une bonne idée, à moins que vous n'aimiez attendre pendant que les programmes recherchent des fichiers.`grep` est bon.`ag` (The Silver Surfer) est génial: je ne sais pas sur un fichier texte de 82,7G (!), mais il peut trouver une chaîne dans tous les fichiers de mon SSD de 128 Go (!!) en moins de 60 secondes.
désolé, cela a été maladroitement dit, je ne voulais pas que cela semble irrespectueux et maintenant il est trop tard pour le modifier: une meilleure façon de le dire serait de dire que ce genre de question n'est pas le tarif standard normal de l'Apple SE, et que je n'ai pas l'intention de rejeter par inadvertance la réputation de bmike.
Merci @AaronF pour votre astuce «ag» - c'est fantastique.Des ordres de grandeur plus rapides que grep (probablement parce qu'il ignore les fichiers dans `.gitignore` - par exemple` node_modules / ** `) et présente bien les résultats.
@AaronF: Le chercheur d'argent, pas surfer, non?
@AaronF pas besoin d'excuses, mais accepté volontiers comme il a été offert.J'aime les questions sur la réponse / la portée / la pertinence.Heck - Je attribue +1 à la réponse sur moins car elle est si concise.
Hobbamok
2020-02-17 16:02:10 UTC
view on stackexchange narkive permalink

Juste ne pas (ouvrez-le comme UN fichier)

Y a-t-il une raison spécifique pour laquelle vous ne pouvez pas simplement le diviser en morceaux d'environ 1 Go avec un script?

Oui, la recherche et les fonctionnalités similaires en souffriront, mais ce sera déjà le cas avec un fichier de 80 Go.

Si vous avez des points d'arrêt spécifiques dans le script (jours dans l'horodatage, messages de démarrage / arrêt), vous pouvez également le diviser pour cela.De cette façon, vous auriez probablement même une signification supplémentaire dans le fichier.

Aussi: une fois divisé, tout IDE décent (comme IntelliJ IDEA ou tout autre) vous donnera une fonctionnalité de recherche sur le texte en arrière.

[Attention: cela vient d'un programmeur donc ce n'est peut-être pas votre approche ou exagéré, je peux seulement dire que cela fonctionnera à la fin, vous devrez savoir si cela en vaut la peine]

jcaron
2020-02-18 00:18:04 UTC
view on stackexchange narkive permalink
  1. Utilisez less dans une fenêtre de terminal. Il ne vous montrera qu'une page à la fois du fichier, ne chargera que cela en mémoire, vous pouvez donc naviguer dans des fichiers multi-TB si vous le souhaitez.

    Vous devriez probablement ajouter l'option -n pour empêcher less d'essayer de calculer les numéros de ligne. Donc:

      moins -n / chemin / vers / fichier
     

    N'oubliez pas que vous pouvez taper less -n (n'oubliez pas l'espace final) et glisser-déposer le fichier du Finder vers la fenêtre du Terminal pour ajouter le chemin d'accès à ce fichier.

  2. Une fois que vous affichez le fichier en less , vous pouvez:

    • naviguer à l'aide des flèches haut / bas, espace (une page vers le bas), b (une page en arrière) ...
    • recherche en utilisant / . Vous pouvez également rechercher des lignes ne contenant pas de motif avec /! . La recherche inversée utilise ? . Mais toutes les recherches analyseront le fichier entier. Mieux vaut l'avoir sur un SSD si vous faites beaucoup ça.
    • accédez à une ligne spécifique du fichier en utilisant <number> suivi de G (G majuscule)
    • accédez à une partie spécifique du fichier en utilisant <number> suivi de % . Ainsi, 50% vous amènera au milieu du fichier, 90% aux 10 derniers%, etc.

Si votre fichier journal a des horodatages et que vous savez quand vous voulez regarder, l'approche la plus rapide est de:

  1. ouvrez le fichier
  2. Utilisez une "recherche binaire" pour trouver la partie approximative du fichier qui vous intéresse:

    • Tapez 50% , qui vous montrera le milieu du fichier
    • Si la partie que vous voulez est après, passez à 75% , sinon 25%
    • Répétez jusqu'à ce que vous soyez réduit à la partie appropriée
  3. Utilisez une recherche régulière (en utilisant / pour avancer ou ? pour revenir en arrière) pour trouver la ligne exacte que vous recherchez (basée soit sur l'horodatage exact ou un mot spécifique que vous connaissez indique le problème).

Cela devrait vous permettre de naviguer rapidement et rapidement vers la partie pertinente du fichier.


Si vous pensez avoir beaucoup de recherches dans un sous-ensemble du fichier, vous pouvez également utiliser grep avec une date ou une combinaison date-heure spécifique (dans le bon format) pour commencer extraire ce sous-ensemble dans un autre fichier plus petit. Par exemple, si vous savez que le crash s'est produit aujourd'hui un peu après midi alors que votre journal couvre des mois, vous pouvez

  grep '2020-02-17 12:' / chemin / vers / fichier > extrait-log.txt
 

Cela vous donnerait toutes les lignes contenant un horodatage compris entre 12:00:00 et 12:59:59 inclus. Bien sûr, le format exact dépendra du format réel utilisé pour les horodatages.

grep analysera le fichier entier une fois pour trouver toutes les lignes pertinentes, ce qui prendra un peu de temps sur un très gros fichier, mais vous aurez alors un fichier beaucoup plus gérable.


Une alternative peut être d'utiliser dd pour "extraire" une partie du fichier d'origine, en utilisant les décalages et les longueurs trouvés dans less ( Ctrl-G pour obtenir le décalage actuel). dd est un outil très puissant mais peut être très dangereux à utiliser, alors utilisez-le avec prudence (et certainement pas en root ou avec sudo si vous n'êtes pas sûr à 100% de ce que vous faites):

  dd if = / chemin / vers / original / fichier de = fichier_destination.txt bs = 1 skip = <start offset> count = <length>
 

Notez que ce n'est pas très efficace, il vaut mieux utiliser une taille de bloc plus grande ( bs ), idéalement une puissance de 2 telle que 1024, et diviser skip et compte par cette taille de bloc.

Je suis presque sûr qu'il doit y avoir d'autres outils qui font la même chose, même si je dessine un blanc.Je pense que certaines versions de cat peuvent le faire, mais pas celle sur macOS apparemment.

Vinil
2020-02-18 08:41:46 UTC
view on stackexchange narkive permalink

Avec les éditeurs de texte sur disque, le fichier n'est pas entièrement chargé en mémoire - ce que vous voyez sur l'interface utilisateur est un aperçu du contenu que l'éditeur a chargé en mémoire.J'ai utilisé avec succès UltraEdit dans le passé pour effectuer une analyse de fichiers journaux volumineux.Ses outils de recherche basés sur des expressions régulières et ses signets de localisation sont particulièrement utiles.Il charge le fichier rapidement et vous pouvez effectuer des recherches basées sur des expressions régulières.L'URL vous amène à une page de téléchargement où vous pouvez télécharger une version d'essai de 30 jours.Il existe également d'autres éditeurs de texte sur disque.

Depuis quelques années, j'ai installé UltraEdit et ouvert le plus gros fichier que j'avais.C'était un fichier binaire de 64 Go et il s'est ouvert instantanément.Ran une recherche d'un terme et cela a pris environ 90 secondes.J'ai mis en évidence la taille du fichier avec un rectangle rouge en bas à droite.Le mac est un MBP 2018 avec 8 Go de RAM exécutant Mojave.

Screenshot of UltraEdit with a 64GB file open and the search window open

oui, UltraEdit fera l'affaire.Mais pas "instantanément".Il va bouillonner pendant 5 à 10 minutes sur un fichier de cette taille :)
@jwenting Vous pourriez être surpris - UE est TRÈS bon pour traiter des fichiers volumineux.
@MikeBrockington Je sais, j'utilise UE.Il a fallu environ 5 minutes pour ouvrir un vidage SQL de 25 Go (ce qui a beaucoup aidé, rien d'autre ne l'ouvrirait) qui a dû être modifié pour se charger sur une autre machine il y a quelques semaines.
@jwenting - vous avez raison.Cela aurait pu être la combinaison de la RAM disponible (le système venait de redémarrer, avec un minimum d'applications en cours d'exécution) + SSD (et le fichier sur le même disque) + version OSX (Mojave) + version UE (la dernière).Si le disque système est en métal (l'un de mes mac a un disque métallique à 5400 tr / min), le fichier peut être mieux analysé en le copiant sur une carte SD UHSII de 128 Go.
user2384366
2020-02-17 17:58:19 UTC
view on stackexchange narkive permalink

Essayez Glogg.Il y a une version MacOs sur la page de téléchargement:

https://glogg.bonnefon.org/download.html

Je ne connais pas les fichiers de 80 Go, mais j'ai regularly utilisé (sur Windos) pour ouvrir des fichiers journaux jusqu'à 5 Go, et cela fonctionne très bien sur ceux-ci (l'empreinte mémoire après l'indexation est d'environ 100-150 Mo, et la rechercheest very rapide).

Une remarque cependant - c'est un analyseur en lecture seule, pas un éditeur.

Il a fallu près d'une heure pour ouvrir le fichier (affichant une barre de progression, pour me faire savoir qu'il ne s'était pas simplement verrouillé), mais il l'a ouvert, m'a permis de le faire défiler et de le rechercher, et cela m'a conduit directement au problème(apparemment une boucle serrée).
Oh, et un analyseur en lecture seule était exactement ce que j'avais en tête, d'autant plus qu'il me permettait de copier les lignes pertinentes dans un document de taille plus gérable.
Une autre chose: si vous examinez des fichiers énormes, nécessitant plusieurs minutes pour s'ouvrir, c'est probablement une bonne idée d'aller d'abord dans Préférences et de désactiver "Charger la dernière session".
@hbquikcomjamesl Merci pour l'info!Il est bon de savoir que Glogg peut gérer de tels mastodontes.
Harper - Reinstate Monica
2020-02-18 00:35:21 UTC
view on stackexchange narkive permalink

Vous ne le feriez pas

Même un fan de Tolkien ne veut rien de 82,7 Go. Vous ne voulez que certains éléments de cela; vous le saurez quand vous le verrez.

Et même envisager un outil qui analyse l'ensemble du fichier est une perte de temps, littéralement; cela va passer 15 minutes à lire le fichier en supposant 100 Mo / s. Beaucoup plus lent s'il fait une analyse de toute complexité.

Le terminal est votre ami

La bouée de sauvetage ici est que OS X est construit sur Unix. C'était une grande partie de l'achat par Apple de NeXT et du retour de Steve Jobs. Cela signifie que vous pouvez utiliser toute la suite d'outils Unix, qui sont extrêmement bien rodés et très bien pris en charge ici.

Il existe des dizaines de façons de le faire sans perl, mais comme perl est intégré à MacOS et est infiniment extensible, je préfère commencer par là (plutôt que de le faire dans un outil plus simple, je veux améliorer quelque peu la requête, appuyez sur le bouton limites de cet outil, et doivent le recréer dans un autre outil). Donc quelque chose comme ça dans un fichier appelé, dites "xx":

  $ len = -s "filename.log"; # variable devient la longueur du fichier
 open ($ IN, "<", "filename.log");
 chercher ($ IN, $ len - 10_000_000, 0); # perl autorise _ en nombre pour la lisibilité

 while (< $ IN>) {# <> lit une ligne. La variable par défaut est une métavariable $ _
   impression; # sans argument, la valeur par défaut est la métavariable $ _
 }
 

Cela ne lira pas tout le fichier, recherchez simplement l'emplacement spécifié (10 Mo à partir de la fin), puis lisez et imprimez tout jusqu'à la fin. Il l'imprimera simplement à l'écran, donc pour l'envoyer dans le fichier, faites ceci lorsque vous l'appelez:

  perl xx > tailfile.txt
 

Vous avez maintenant un fichier tailfile.txt de 10 Mo que vous pouvez ouvrir avec autre chose.

Il existe des moyens plus simples de faire exactement cela , mais supposons que vous réalisiez "Attendez, je veux faire plus. Je ne veux que des erreurs et des avertissements." Vous changez donc la commande d'impression en

  imprimer si / erreur / i ou / warning / i;# // correspond au texte, la valeur par défaut est $ _
 

Cela aussi peut être accompli dans des outils plus simples si vous passez suffisamment de temps à parcourir les documents.Mais alors, vous décidez que vous devez voir les trois lignes après l'erreur.Juste comme ça ... vous avez dépassé les outils les plus simples, mais c'est trivial en Perl.Vous pouvez continuer à caler Perl pour toujours.Il y a un langage de programmation complet là-dedans.Orienté objet et tout.

Je suis un grand fan de perl, mais si vous voulez juste la fin d'un fichier, `tail -c ` est probablement beaucoup plus facile :-)
@jcaron Bien sûr, si vos besoins s'arrêtent là.Comme je l'ai discuté.Mais quand vos besoins s'arrêtent-ils là?
Curt
2020-02-18 17:30:31 UTC
view on stackexchange narkive permalink

Un fichier aussi volumineux est probablement redondant à 99,999999% (littéralement), donc la clé est de supprimer les lignes qui se produisent des millions de fois, avec un certain degré de similitude, et d'examiner ce qui reste.

Sous Linux, il existe un utilitaire appelé petit , conçu pour analyser d'énormes fichiers journaux, qui fait cela. Un exemple d'utilisation est petit --hash /var/log/kern.log . L'utilitaire peut probablement être trouvé ou construit pour Mac.

Il traite chaque ligne du fichier pour supprimer les éléments qui rendent la ligne unique; par exemple, supprimez la date de chaque ligne et remplacez toutes les chaînes de chiffres par un seul caractère #. Chaque ligne générique est ensuite hachée pour devenir une empreinte digitale pour la détection de lignes similaires.

Le résultat est qu'il affiche chaque ligne une seule fois avec un nombre d'occurrences, ce qui réduit considérablement la taille des données. Tout ce qui sort de l'ordinaire est susceptible d'apparaître clairement, et ensuite on peut le rechercher spécifiquement, en utilisant les utilitaires de certaines des autres réponses ici.

Je ne sais pas si cet utilitaire particulier est suffisamment performant pour quelque chose de cette taille. Je parierais que oui, car il a des options pour tracer des graphiques de l'ordre de mois ou d'années d'entrée, et n'aurait pas besoin de stocker grand-chose en plus d'un petit nombre d'empreintes digitales. Dans le pire des cas, vous pouvez écrire la vôtre: pour chaque ligne d'entrée, générialiser en une empreinte digitale, la hacher et l'ajouter à une base de données de hachage + empreinte digitale + compte, indexée par hachage.

EDIT : petit semble utiliser plus de CPU et de mémoire que souhaité, j'ai donc écrit ma propre implémentation simple: https://github.com/curtmcd / hashlog. Il effectue un passage dans le fichier journal; il traite à environ 6,5 s / Go sur mon serveur Ubuntu domestique.

«petit» ne sera pas une réussite.Je viens de l'essayer avec un fichier journal d'environ 1,1 Go.Il a consommé toute la mémoire disponible et a pris environ 5 minutes avant de l'interrompre.Un outil qui crée un hachage de chaque ligne dans un fichier afin de détecter les doublons est voué à l'échec à cette tâche.
On s'attend à ce qu'il lui suffise de stocker une table de hachage de chaînes de signature uniques, pas toutes les lignes, en analysant le fichier une seule fois.Le nombre d'entrées ne doit pas être beaucoup plus que le nombre de printf uniques dans le (s) programme (s) qui écrivent dans le journal, généralement de l'ordre de centaines.`petit` n'est peut-être pas une si bonne implémentation, et j'avoue que je ne l'ai essayé qu'avec un fichier journal de 30 Mo.J'ai écrit le mien et je mettrai à jour la réponse.
little_birdie
2020-02-17 20:18:57 UTC
view on stackexchange narkive permalink

"joe", alias Joe's Own Editor, a été conçu pour ne charger que certaines parties du fichier selon les besoins.Je ne l'ai jamais utilisé sur un fichier aussi volumineux, mais je n'ai jamais rencontré de fichier texte trop volumineux pour qu'il puisse s'ouvrir.

Alex
2020-02-20 00:32:27 UTC
view on stackexchange narkive permalink

Certainement Hex Fiend.Il ouvre les fichiers SANS utiliser la RAM.Il lit simplement à partir du disque.La performance est absolument incroyable.J'ai déjà examiné des vidages de mots de passe de 500 Go avec.

https://ridiculousfish.com/hexfiend/

Tom Tran
2020-02-18 20:35:21 UTC
view on stackexchange narkive permalink

Ouvrez le terminal et utilisez vim pour l'ouvrir

  vim filename.txt
 

P / s:

Tapez vim et faites glisser le fichier vers votre terminal.Puis appuyez sur Entrée.

Pour quitter vim (sans modification):

 : q!
 
Comment cela fonctionne-t-il avec un fichier de la taille décrite dans la question?
Mieux vaut utiliser `vim -r` pour éviter la création d'énormes fichiers d'échange.
Je ne suis pas sûr que les gens sachent comment comprendre le «: q!».Il n'est pas évident que vous le saisissiez directement.
Panos Kordis
2020-02-19 15:29:30 UTC
view on stackexchange narkive permalink

Je recommanderais d'utiliser Sublime Text.Bien qu'il nécessite une licence, il peut être téléchargé et évalué gratuitement sans limitation de temps ou de fonctionnalité.Cela signifie que vous ou votre entreprise pouvez avoir la chance de l'essayer autant et comme vous le souhaitez.Je l'utilise personnellement pour enquêter sur des journaux de peut-être même 3-4 Go dans la plupart des cas, ou pour des vidages SQL de même 12 Go.Lors de l'ouverture initiale, il parcourt tout le fichier afin d'effectuer une indexation de 1er niveau, etc., mais il est livré avec une barre de progression indiquant la progression du processus dans son ensemble.

Avez-vous une expérience personnelle de l'utilisation de Sublime Text pour ouvrir un fichier de 83 Go?Expérience personnelle positive?Votre réponse ne mentionne que des fichiers presque d'un ordre de grandeur plus petits.
Non, c'est pourquoi je recommande de l'essayer pour évaluer sa pertinence.Le fait que, d'après mon expérience personnelle, je n'ai eu aucun problème à traiter des fichiers jusqu'à 12 Go et le fait que les limitations de l'application ne mentionnent rien à propos de max.la taille du fichier implique qu'il ne devrait pas y avoir de problème pour lire un fichier de quelque taille que ce soit. L'OP s'intéresse à 3 choses: lire le fichier, réduire l'utilisation de la mémoire, ne pas avoir de signes de gel de l'application.Sublime rend une barre de progression lors de l'indexation et est très bon en particulier pour la lecture et la recherche d'énormes fichiers


Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 4.0 sous laquelle il est distribué.
Loading...