Wikipedia:Botcafé/Archief/2007-06

Uit Wikipedia, de vrije encyclopedie

table2wiki.py[bewerken | brontekst bewerken]

Hallo medegebruikers,

ik probeer al enige tijd table2wiki.py via xml te gebruiken, maar de bot loopt steeds vast op Isotopentabel (compleet) en Isotopentabel (in delen), gewoonweg omdat deze te groot zijn. Is er een manier om deze artikelen te omzeilen? Crazyphunk 24 jun 2007 12:49 (CEST)[reageren]

Bij voorkeur deze bot helemaal niet gebruiken; het voegt zeer zelden iets toe en het kan geneste tabellen heel makkelijk slopen. Het vastloopprobleem is op te lossen door in de source een check op die paginanaam toe te voegen. valhallasw 24 jun 2007 21:23 (CEST)[reageren]
Het is juist makkelijk dat die bot de tabellen aanpast, zo nemen andere mensen geen verkeerde tabellen over maar wel de goede. Welke code moet ik er speciaal voor gebruiken om die pagina`s te negeren. Misschien is het trouwens wel een optie om table2wiki in de AutoWikiBrowser te zetten? Crazyphunk 24 jun 2007 22:19 (CEST)[reageren]
Voor zover ik weet checkt de bot niet op geneste tabellen dus kan je het veel beter met de hand doen. In ieder geval moet je het zelf even nalopen.

Voeg op regel 486 in: if pl.title() not in ['Isotopentabel (compleet)', 'Isotopentabel (in delen)']: (en evt andere pagina's die je wilt negeren) volgende regel even 4 spatie's erbij en draaien maar. Oh, en ik ben geen AWB-devver ;) valhallasw 26 jun 2007 13:58 (CEST)[reageren]

ok dankjewel 🙂, weet je trouwen wel wie wel een awb-devver is? ik kan dat eigenlijk nergens vinden. Crazyphunk 26 jun 2007 14:03 (CEST)[reageren]
Er is een about box in het programma. Klik op Help en dan op about. Annabel(overleg) 26 jun 2007 14:06 (CEST)[reageren]
Ok dankjewel Crazyphunk 26 jun 2007 14:17 (CEST)[reageren]
Deze: Isotopentabel (in delen) is ondertussen in orde - Warddr (overleg) 27 jun 2007 09:31 (CEST)[reageren]

Hoi allemaal,

Er draaien vrij veel interwikibots op het moment. Als je bekijkt hoeveel netwerkverkeer deze genereren, relatief gezien ten opzichte van de andere bots, dan genereren interwikibots vrij veel dataverkeer. Deze bots zijn ook niet zo prioritair, aangezien het niet voorkomen van een interwikilink binnen bijvoorbeeld enkele dagen niet van groot belang is voor de werking van wikipedia. Indien interwiki's met een groter interval zouden worden toegevoegd, duurt het weliswaar ietsje langer, maar heeft als voordeel dat het de servers minder belast. Ik zou dan ook graag zien dat er een rem komt op interwikibots en dat nieuwe interwikibots enkel de botstatus verkrijgen als deze een botstatus hebben op zo'n tien of twintig wikipedia's. Dit zou voordelig zijn voor de efficiëntie, aangezien een bot met botstatus op 20 wiki's heel wat efficiënter is dan twee bots op 10 wiki's. Wat denken jullie erover?

Annabel(overleg) 26 jun 2007 14:05 (CEST)[reageren]

Als ze dit idee overal zouden overnemen, hoe zou iemand dan aan 20 botbitjes kunnen komen? Crazyphunk 26 jun 2007 14:18 (CEST)[reageren]
aangezien een bot met botstatus op 20 wiki's heel wat efficiënter is dan twee bots op 10 wiki's. - ik zie het verschil niet, volgens mij kost het evenveel 'verkeer' maar dan verdeeld over meer personen Michiel1972 26 jun 2007 14:20 (CEST)[reageren]
Ten eerste en:Wikipedia:Don't worry about performance. Hoe heb je trouwens gemeten hoeveel netwerkverkeer deze interwiki bots en andere bots genereren? Hoeveel procent ze van de totale capaciteit opsnoepen (1%?, 10%?, 25%?). Is dit wel de flessenhals? Ik weet het niet en kan er alleen naar gissen. Het is wel handig als interwiki bots op veel wiki's draaien. Veranderingen propageren dan vlot en het aantal edits te opzichte van het aantal opgevraagde pagina's is dan hoger dan als je op weinig wiki's draait. Multichill 26 jun 2007 14:26 (CEST)[reageren]
Op Help:Gebruik van bots staat er: Er draaien reeds veel mensen een bot op Wikipedia NL (zie hier), zodat de behoefte aan nieuwe botgebruikers niet erg groot is.. Ik heb in het verleden eens een interwiki.py testrun gedaan toen er blijkbaar nood was aan het draaien van deze bot. Superaccuraat is het dan niet, maar aan het verkeer dat over de firewall loopt merk je wel het een en ander. Annabel(overleg) 26 jun 2007 14:59 (CEST)[reageren]
PS: @Michiel1972: in het geval van twee bots die elk op 10 wiki's wijzigen: elke bot moet afzodnerlijk de interwiki-links van alle wikipedia's binnenhalen, in plaats van dat het maar eenmaal binnengehaald wordt.
Met het toenemen van het aantal artikelen in de wikipedia's neemt de behoefte aan interwiki bots en daarmee ook de bandbreedtebehoefte exponentieel toe. Interwiki bots zijn op termijn denk ik een uitstervend ras, omdat interwiki's fundamentally flawed zijn - ze schalen niet en een volledig cluster van artikelen kan op interwikigebied gefrusteerd worden met een aantal strategische bewerkingen. Er zijn in het verleden reeds vele oplossingen voorgesteld, van logisch tot exotisch. De prioriteit is echter relatief laag (en terecht wat mij betreft vergeleken bij dingen als SUL, image backend rewrite en InstantCommons). Laat de botjes maar lekker zoemen, zou ik zeggen. Groet, Siebrand 26 jun 2007 15:05 (CEST)[reageren]

OK. Alhoewel ik het er niet volledig mee eens kan zijn, bedank ik jullie voor de reacties. Annabel(overleg) 27 jun 2007 12:59 (CEST)[reageren]