A mostani epizódban optimalizáljuk az LLM-nek átadott kontextus méretét és egy egyszerű kereséssel oldjuk meg, hogy megkapja a szükséges tartalmat.