Un număr mare de directoare influențează negativ performanța?

Intenționez să folosesc fișierele pentru a stoca date ca un fel de memorie cache pentru fișierele generate de PHP, pentru a evita să le reanalizeze de fiecare dată când sunt încărcate (conținutul lor se schimbă doar o dată pe zi).

Un lucru pe care l-am observat în trecut este că dacă un director are un număr mare de fișiere înăuntru, ajungând la mii, va dura mult timp pentru ca un program FTP să-și încarce conținutul, uneori chiar să prăbușească computerul care încearcă să le încarce . Deci, caut un sistem bazat pe arbore, în care fiecare fișier este stocat într-un subfolder pe baza codului său de identificare. De exemplu, un fișier cu ID 123456 va fi stocat ca 12/34/56.html . În acest fel, fiecare dosar va avea cel mult 100 de elemente (cu excepția cazului în care există milioane de fișiere, dar acest lucru este foarte puțin probabil să se întâmple).

Este o idee bună, este prea mult, sau este inutil? Întrebarea, în esență, se reduce la: "Care este cel mai bun mod de a organiza un număr mare de fișiere?"

0

1 răspunsuri

1) Răspunsul depinde de

  • OS (de ex. Linux vs Windows) și

  • sistemul de fișiere (de exemplu, ext3 vs NTFS).

2) Rețineți că atunci când creați în mod arbitrar un subdirector nou, utilizați mai multe inode

3) Linux rulează de obicei "mai multe fișiere/director" mai bine decât Windows

4) Câteva linkuri suplimentare (presupunând că sunteți pe Linux):

0
adăugat