Overleg gebruiker:Hooft/robot

Pagina-inhoud wordt niet ondersteund in andere talen.
Uit Wikipedia, de vrije encyclopedie

Help!

Nu heb ik 25840 waarschuwingen gekregen van de laatste ronde van de robot, en dat is zo veel dat ik niet meer weet hoe ik het op de servers kan zetten zodat iedereen kan meehelpen om de missende links aan te brengen.

Ik heb geprobeerd op de en: site met 1232 regels, maar dat duurt minuten om die te laden. Splitsen in 10 pagina's zou kunnen, maar dan ben ik in het totaal al een dag bezig om al deze waarschuwingen op de servers te zetten.... Heeft er iemand een beter idee?

Zie voor de complete lijst van 25840 waarschuwingen: http://www.hooft.net/people/rob/Interwiki/allwarnsorted.log

(Maar neem de tijd want het is 1.9MB)

Het downloaden van dat bestand gaat hier wel snel op mijn werk, maar het verwerken zie ik een beetje tegen op (ik trek mijn aanbod een ietsie pietsie in.....). Het zijn 485 bladzijden in een Word document.... moet je dat wel willen vraag ik me eerlijk gezegd af. Het mooiste zou zijn als de talen zelf het voor hun eigen lemma's gaan verwerken, dus elk deel op de betreffende taal neerzetten?? (Ook nog veel werk om te splitsen en te uploaden). Elly 21 okt 2003 15:24 (CEST)[reageer]

Ik denk ook niet dat je dit moet willen. Eigenlijk wil ik het op de belangrijkste talen kunnen gebruiken als argument vóór een robot die het werk doet. Er bestaat veel angst voor automatiseren in de Wikipedia-wereld. Als elke taal zijn eigen robot-expert heeft die deze robot regelmatig laat lopen, dan loopt het aantal "eenvoudige" problemen snel af, en kan men de menskracht richten op het echte werk..... Droom....

Inderdaad is zelfs het per-taal splitsen in een paar pagina's een hondse klus waar ik 1-2-3 geen tijd voor kan maken. Rob Hooft 21 okt 2003 16:36 (CEST)[reageer]

Voor en: heb ik het nu geprobeerd. Op 5 pagina's gesplitst. Het lijkt erop alsof de hele en: wikipedia nu al minutenlang op zijn knieën ligt omdat ik deze 5 pagina's heb gemaakt. Dit lijkt me een bijkomend probleem waarvoor ik de ontwikkelaars zou moeten inschakelen ..... Rob Hooft 21 okt 2003 17:13 (CEST)[reageer]

Ik heb ze nu ge-upload naar jouw Gebruikers-overleg-pagina op de:eo:es:fr:ja:pl:sv: en de mijne op da:zh: - maar het is inderdaad wel langzaam, de de:-pagina kost me hier (op een zeer snelle verbinding) zo'n halve minuut om te laden. Er zijn trouwens vanuit een aantal talen (o.m. de:,es:) al wel aanvragen richting je robot gegaan. Zou het een idee zijn om deze personen, indien ze actieve en gewaardeerde wikipedianen zijn simpelweg de robot te geven, en ze dan zelf maar de benodigde toestemming van hun taalgenoten te laten regelen in plaats van eerst op die toestemming te wachten? Sowieso denk ik dat de meeste reacties (positief & negatief) pas komen nadat iemand daadwerkelijk de robot heeft laten lopen - en in dit geval heb ik er alle vertrouwen in dat de reacties positief zullen zijn. Andre Engels 21 okt 2003 17:54 (CEST)[reageer]
Bedankt voor al het werk. De Duitse pagina is traag, maar een orde van grootte sneller dan de en: pagina, en voorheen was die en: pagina ook geen ernstig probleem. Ik denk toch dat er dan iets speciaals is met de en: versie van de software. Over het uitdelen van de robot: ik geef de wikitech lijst nog een paar dagen, en als er dan nog geen zinvolle discussie uitkomt zet ik de code op sourceforge. Het is me te veel werk om alle wijzigingen die iedereen voorstelt bij te houden en zelf opnieuw te maken; daarvoor is sourceforge een goed idee. Echte bezwaren zijn er blijkbaar niet. Rob Hooft 21 okt 2003 18:36 (CEST)[reageer]

Vraagje Rob: er staan op je lijst ook een heel stel af: problemen, maar die zitten nog in de oude software en links werken daar niet. Moet dat alvast wel veranderd worden of is dit een artefact van het verschil in software? Jcwf

Er zijn wel af: pagina's met links. Dit is een twijfelgeval, ik zou zeggen dat we die links maar even links moeten laten liggen. De serieuze fase-3 wikipedia's zijn belangrijker. Rob Hooft 16 nov 2003 16:43 (CET)[reageer]