Ich hab ein script, das mittels sed nach bestimmten patterns in mehreren dateien sucht, und dann bestimmte Zeilen löscht.
Das ganze sieht so aus:
Mittlerweile sind aber sehr viele patterns dazugekommen (insg. ~250) und das ganze ist sehr langsam und cpu-fordernd geworden. Vor allem auch deshalb, weil ich an die 100-150 Dateien durchsuche (die jedesmal per wget frisch aus dem Netz geladen werden).
sed ist ja ein serieller Editor, der einfach die datei von oben nach unten durchgeht bis er den gesuchten pattern findet.
Gibts ne Möglichkeit das irgendwie zu optimieren? vielleicht mit grep oder awk? Wichtig ist dabei, dass bei Auftreten eines patterns der Rest der Datei weggeworfen wird. Ergo: ich will nur Dateien wo KEINER der patterns auftritt!
Danke für Tipps