Bij 1 grote file is het eigenlijk wel logisch dat deze verminkt raakt wanneer deze te groot is. De file moet ingelezen worden en er moeten nieuwe regels worden toegevoegd, als de file te groot is geworden en PDW is nog gegevens aan het wegschrijven als defile weer wordt ingelezen, dan kan er vanalles misgaan..
Uh sorry maar zo werkt het dus echt niet. Een file wordt geopend en er wordt iets aan toegevoegd. De grootte heeft totaal geen invloed, of deze nu 5 bytes of 5 terrabyte is. Openen om er iets aan toe te voegen is iets volstrekt anders dan het lezen van een file waarbij de grootte wel degelijk van invloed is. Daarom had HTML in PDW zo'n invloed op de prestaties, de buffers moesten gelezen worden en een regel BOVENIN toegevoegd ipv onderin. Volstrekt andere bewerking dan onderin toevoegen, hoe groter hoe zwaarder, daarom had ik destijds bewust een keiharde limiet van 1000 regels ingebouwd.
Voordat we afdwalen, het aantal regels cq de grootte van een logfile maakt absoluut niet uit.
Mijn vraag is dan ook, wat versta je onder "beschadigd" en hoe constateer je dit? In LogBrowser, in NotePad of anders? Kan het niet zijn dat je harde schijf beschadigd is? Kan het niet zijn dat je veel biterrors ervaart waardoor er soms rare tekens worden weggeschreven waardoor bepaalde software kan 'denken' dat de logfiles corrupt zijn?
Geef aub wat concrete voorbeelden

Als er veel lees/schrijfbewegingen gemaakt moeten worden en PDW kan het niet bijbenen (omdat de computer te traag is), dan kan het fout gaan.
Sorry Remon, maar je haalt er nu echt zaken bij die er volstrekt niets mee te maken hebben.
Groeten, Peter.