Wikivoyage:Gebruiksvoorwaarden: verschil tussen versies

Verwijderde inhoud Toegevoegde inhoud
(WT-nl) 3wisemen (overleg | bijdragen)
k (Import from wikitravel.org/nl)
(WT-nl) 3wisemen (overleg | bijdragen)
k (Import from wikitravel.org/nl)
Regel 1:
Het complete werk op Wikitravel -- tekst, afbeeldingen, etc -- is gratis door een ieder te gebruiken, zolang als ze zich houden aan onze [[Project:copyleft|copyleft]] regels. We zijn nog bezig om de complete Wikitravel in andere formaten beschikbaar te stellen, dus als de noodzaak voelt om de gegevens te kopiëren en elders te gebruiken, ga je gang.
 
De wikitravel.org Web server, met de bijbehorende [[Project:Wiki|Wiki]] software, zijnvormen een '''samenwerkings instrument''' gebruikt om het werk van de bijdragen van de [[Project:Wikitravellers|Wikireizigers]] te coördineren. Het staat ter beschikking van de gehele Wiktravel populatie, namelijk:
 
#Mensen die ons [[Project:doelen en missers|doel]] ondersteunen om een gratis, volledige, actuele en betrouwbare wereldwijde reisgids te maken.
#Mensen die onderkennen dat samenwerking met andere Wikitravellers noodzakelijk is om dit doel te bereiken.
 
Als je niet geinteresseerdgeïnteresseerd bent in onze doelen, of als je het er wel mee eens bent, maar weigert samen te werken, compromissen te sluiten , [[Project:consensus|consensus]] te bereiken, of concessies te doen aan andere Wikitravellers, dan vragen we je om deze Webservice niet te gebruiken. Als je de service tegen onze wensen in blijft gebruiken, dan behouden we ons het recht voor om alle middelen -- zowel technisch als juridisch -- die tot onze beschikking staan te gebruiken om te voorkomen dat dat je ons werk samen verstoort.
 
Zie ook: [[Project:Trademark policy]]
Regel 21:
Dit is inclusief "mass downloaders" zoals wget or HTTrack. IP adressen van programma's die deze regels niet in acht nemen worden geblokkeerd op TCP/IP niveau''.
 
# Alleen-lezen scripts '''moeten''' het [http://wikitravel.org/robots.txt robots.txt] bestand voor Wikitravel lezen en de aanwijingenaanwijzingen volgen. De meeste programma's (zoals [http://www.gnu.org/software/wget/wget.html wget]) weten automatisch robots.txt te vinden, net als de meeste grote scripting talen' HTTP client libraries. Maar als je je eigen programma schrijft, check dan de [http://www.robotstxt.org/wc/norobots.html Standard for Robot Exclusion] voor meer info.
# RAlleenAlleen-lezen scripts '''moeten''' het niet-standaard [http://help.yahoo.com/help/us/ysearch/slurp/slurp-03.html Crawl-Delay] veld in robots.txt herkennen. Als dat niet het geval is, dan '''mogen''' ze toch '''niet''' vaker dan eens per '''30 seconden''' pagina's of afbeeldingen ophalen.
# Alleen-lezelezen scripts '''moeten''' een User-Agent header set bevatten. Scripts '''zouden''' een contact emailadres of URL in de header ''' moeten''' bevatten. Bijvoorbeeld:
#*''ExampleBot/0.1 (<nowiki>http://www.example.com/bot.html</nowiki>)''
#*''MyBot/2.3 (mybot@example.net)''
 
*Zie ook: [[Project:How to handle unwanted edits|How to handle unwanted edits]]
 
* Terug naar [[Project:Regels en richtlijnen|Hoofdpagina Regels en Richtlijnen]]
 
[[de:Project:Nutzungsbedingungen]]