Dobry den,
pokousim se importovat vetsi mnoztsvi fotek pomoci Feeds Importers (Drupal 7) a XML od dodavatele (cestovni kancelar), jde radove o 1000+ fotografii ruznych velikosti od 10kB do 500kB. Vytvoril jsem si svuj feed, ktery ovsem konci po nekolika desitkach nactenych fotek a to dost podstatnym prekrocenim memory limitu (128MB) radove o jednotky MB, hosting je u C4. Mate nekdo prosim tip na minimalizaci pametovych naroku teto operace? Obrazky jsou vkladany jako jednotlive nody, 1 foto :1 node.
Dekuji predem za kazdy tip.
Iv.
Diky,
o neco takoveho jsem se uz pokousel ale nejsem si jisty jestli nody vytvarim a ukladam korektne. Predpokladal jsem ze pouzity modul bude na toto pripraven, kdyz je mozne jej napojit na cron. Zpusob pres feed importers mi pripadal komfortni a universalni.
Já k tomu přistupuju tak, že chci mít maximální kontrolu nad tím, co, jak, kdy a kam se importuje, takže raději tomu dám pár minut a udělám si vlastní import.
Dejme tomu ze tento vlastni modul vytvorim, nebudu mit problem s max_execute_time limitem? Omezuje tento limit skripty spustene pomoci Batch API?
Diky.
No tak samozřejmě, pokud v rámci jedné operace v dávce spotřebujete paměť nebo časový limit pro běh skriptu, tak vám to také spadne. Ale v tom případě bych pak přemýšlel nad tím, kde jsem udělal při návrhu chybu.
Pokud třeba projdete jeden záznam v XML feedu po druhém a uděláte pro něj nový uzel, nevidím důvod, proč by to serve neměl zvládnout.
OK, dekuji za rady a predevsim za Vas cas.
Dobrý den, Feed Importers neznám, já osobně bych to řešil tak, že bych si naprogramoval vlastní modul pro import (není to extra složité) a využil přitom Batch API. Tak by to chodilo jeden záznam po druhém a 128 MB paměti by tomu mělo bohatě stačit.