Dire che ho un sito su http://example.com. Mi piacerebbe molto che i bot potessero vedere la home page, ma ogni altra pagina deve essere bloccata in quanto inutile per lo spider. In altre paroleCome impostare un robot.txt che consente solo la pagina predefinita di un sito
http://example.com & http://example.com/ dovrebbero essere autorizzati, ma http://example.com/anything e http://example.com/someendpoint.aspx devono essere bloccate.
Inoltre sarebbe bello se mi posso permettere alcune stringhe di query al passthrough alla home page: http://example.com?okparam=true
ma non http://example.com?anythingbutokparam=true