Onko wikissä jotenkin huomioitu häirikköosoitteiden "bannaaminen", kun noita mainoksia ym. näyttää nykyään tulevan silloin tällöin?
Erittäin korkealentoisena ideana, jonka toteuttaminen ei varmasti ole ongelmatonta eikä kovin korkealla missään prioriteettilistassa, wikiin voisi lisätä spämmisuodatuksen. Esim. jos joku lisää sivulle pelkkiä linkkejä sisältävän kappaleen (tai jotain muuta määriteltyihin sääntöihin sopivaa), muutos saisi jonkin määrän pisteitä. Pisteytys voisi riippua lisättyjen linkkien määrästä ja siitä, miten lähellä pääsivua muutokset ovat sivuhierarkiassa. Lisäksi jos samasta osoitteesta tehdään spämmiksi epäiltyjä muutoksia useammalle sivulle, se voisi nostaa kaikkien muutosten pisteitä. Jos pisteet ylittävät jonkin rajan, muutoksia ei hyväksyttäisi.
Jos haluaa olla oikein ovela, spämmerille itselleen voisi tietysti tarjoilla sivusta oman version, jossa muutokset näyttävät menneen läpi... :-) Ja jotta virheellinen spämmiluokitus ei niin helposti pääsisi puremaan muita käyttäjiä, rekisteröidyn wikitunnuksen tekemät muutokset voisi hyväksyä automaattisesti. Jos spämmeri sitten rekisteröisi itselleen tunnuksen, sillä tehdyt muutokset olisi kai periaatteessa helppo poistaa.
(En silti ajatellut vapaehtoistua koodaamaan spämmisuodatinta wikiin, kunhan vain heittelin ideoita kun tuli mieleen...)
Mahtaisiko olla yksinkertaisempaa tarjota rekisteröimättömille käyttäjile eri versio editorista, sellainen joka ei antaisi laittaa ulkoisia linkkejä.
--Matti
Totta, tuskin tuollainen rajoitus kovasti haittaisi normaalia käyttöä (tai jos jotain haittaa niin wikitunnuksen voi luoda helposti).
Jos tunnuksettomien editointia rajoitetaan (tai myös jos tunnuksellisten muutokset hyväksytään helpommin), saattaa tietysti käydä niinkin, että häirikkö kirjautuu sitten sisään jollain sivuilta poimimallaan tunnuksella. Sellaisesta voisi olla paljon enemmän riesaa kuin nykyisistä ongelmista, ja sitä taitaa olla vaikea estää mitenkään.
Wikipedia.orgissa toimii mainiosti IP-pohjainen suodatus, ja olen myös täällä sulkenut tiettyjä IP-osoitteita pois kokonaan (eli jos ette voi editoida tätä Kiinasta, niin siinä selitys), joskin tämä on tehty palomuuritasolla. JSPWiki ei sinällään tällä hetkellä tue IP:iden blokkaamista, joskin tämän varmaan voisi tehdä.
Sinälläänhän homma toimii niin kauan kuin ihmiset jaksavat siivota wikiä, avoimeen systeemin kun roskaa tulee aina. Ja ainakin toistaiseksi kaikille avoimen järjestelmän edut ovat isommat kuin ne haitat mitä tulee kun sivuja pitää siivota aina silloin tällöin. Muistakaa, että tämä on yhteinen pelikenttä, ja ainakin toistaiseksi täällä on enemmän "hyviä" käyttäjiä kuin "huonoja" käyttäjiä, joten sivuja pitäisi pystyä siivoamaan ja valvomaan ihan sosiaalisen paineen voimin :)
Mutta ideoita saa ja pitääkin esittää - jos joku ratkaisee spämmiongelman, niin totta kai sellainen ratkaisu ilmaantuu jspwikiin...
Taas oli spammia. Ilmeisesti uudet sivut poistettiin nopeasti, koska muutoslista kutistui sitä uudelleen katsottaessa. Mahtaisiko mistään löytyä kkodinpätkää, joka tunnistaisi sivulla olevan kielen? Tällöin voisi estää muiden kuin suomenkielisten sivujen tekemisen. Asian laita tietysti kerrottaisiin suomeksi. Jos muunkieliselle sivulla tulee tarve, niin sen perustamiseksi olisi olemassa jokin muu menettely.
Spämmit on toistaiseksi siivottu pois nopeasti. Vilkaisen yleensä viimeiset muutokset, jolloin ylimääräiset rivit listassa ärsyttävät.
--Matti Siivola 6.10.2004
Mun kommentaarini ja keskustelua asiasta täällä. Kielen tunnistaminen on kyllä oikeastaan pirun vaikeaa, ja tuollaiset voi tietysti kiertää aika helposti. Harkitsen tällä hetkellä koko Kiinan sulkemista pois palomuuritasolla, vituttaa sen verran. Luultavasti tuo kaveri tulee vielä takaisinkin... Pitäkää silmät auki.
-- Janne Jalkanen, 6.10.2004
Näköjään tyyppi kävi taas. Jos se haluaa näkyvyyttä hakukoneissa, nythän se saa sen poistoista huolimatta sivuhistorian ja RecentChangesin kautta. Pitäisikö vanhoja versioita sisältäville sivuille lisätä robots noindex? En tiedä ajatteleeko tyyppi asiaa niin pitkälle, että jättäisi sivut rauhaan jos muutoksista ei jää mitään jälkeä minnekään, mutta ainakin olisi mukavampaa olla antamatta sille sitä mitä se haluaa.
-- Juha Koivisto, 7.10.2004
Tuli tässä mieleen yksi mahdollinen tapa rajoittaa tällaista toimintaa:
Voisiko Wiki sisältää kieltolistan ulkoisista linkeistä?
Jos tallennuksessa tällainen linkki löytyy, niin tallennusta ei lainkaan tehdä. Esimerkiksi linkit kokonaan numeroista tehdyihin domain nimiin voitaisiin kieltää.
Tällöin jäljelle jäävä ongelma: Kuka ylläpitää kiellettyjen site:jen listaa?
-- Lauri Paatero, 7.10.2004
Spämmiä... Ilmeisesti samat jotka jo aamulla oli kerran poistettu.
-- Johanna Tuominen 7.10.2004
Laurin ehdotus on esitetty myös Jannen antaman linki takana ja Juhan jollakin WikiSpam-sivulla.
Pohdiskelin, että mikähän olisi legitiimin peruskäyttäjän maksimi datan syottönopeus. Kannattaisiko blokata yritys tehdä liikaa muutoksia nopeasti? Kaikki tällaiset viritykset tietysti dokumentoidaan vain suomeksi.
-- Matti Siivola 7.10.2004
Ehkä kiellettyjen listaa voisi ylläpitää automaattisesti luomalla kaikista wikin sisältämistä ulkoisista linkeistä tietokannan, joka sisältää tiedon siitä milloin linkki on lisätty ja milloin poistettu. Linkit, jotka toistuvasti poistetaan pian niiden luomisen jälkeen, ovat todennäköisesti jotain ei-haluttua, kun taas linkit, jotka ovat saaneet olla sivuilla kauan, ovat todennäköisesti ok.
-- Juha Koivisto 7.10.2004
Etsin itse asiassa ei-kielispesifistä ratkaisua, koska haluan sen mukaan koko JSPWikin distribuutioon, en ainoastaan tänne.
Tällä hetkellä mietin juuri "kiellettyjen sanojen" listaa, jota luonnollisesti ylläpidettäisiin yhdellä Wikisivulla (tietokantahan tämäkin on...). Uudessa JSPWikissä kun on olemassa jo mahdollisuus lukita sivuja vain tiettyjen ihmisten muokattavaksi. Tällöin wikiin syntyisi administraattoreiden kasti, joilla on enemmän oikeuksia kuin muilla.
Maksimisyöttönopeus ei toimi, koska jotkut kirjoittavat tekstinsä erillisessä editorissa ja sitten cut-n-pasteavat sen.
Automaattinen linkkien tunnistus voisi ehkä toimia, mutta kaikenlainen automatiikka saa olla aika hyvin testattua tai se tappaa käytettävyyden.
-- Janne Jalkanen 7.10.2004
Minulle juolahti mieleen yksinkertainen ajatus siitä, että muokattavalle sivulle ei voisi lisätä kuin 5...10 (ulkoista) linkkiä kerrallaan tai muokkausta ei hyväksytä. Tuo ainakin ainakin vaikeuttaisi häiriköintiä vähän ja harvemmalla lienee tarvetta saada kauheaa kasaa linkkejä yhdelle sivulle mikäli ihan laillista tekee. Tietty jos mahdollisimman yleistä ratkaisua etsitään niin tuo on jonkin verran rajoittava eikä se ratkaise ongelmaa jos botti ampuu sälää useille sivuille.
-- Mikael Runonen 7.10.2004
Valitettavasti tuo ei toimi esimerkiksi silloin jos kopioidaan sivun sisältö paikasta toiseen (kuten esimerkiksi tapahtui silloin kun otin tämän keskustelun omalle sivulleen). Puhumattakaan siitä, että sen toteuttaminen on epätriviaalia.
Sitäpaitsi esim. jspwiki.orgissa on sivuja, joilla on täysin legitiimisti linkkejä ulkoisiin resursseihin. Niiden erottaminen spämmistä alkaa vaatia korkeampia algoritmeja.
-- Janne Jalkanen 7.10.2004
Erillisellä sivulla ylläpidetty kieltolista olisi sinänsä yksinkertainen ratkaisu ja ehkä aivan riittävä (olettaen, että sitä pystyy muokkaamaan vain autentikoitu admin-käyttäjä). Toisaalta se tarkoittaa, että siivoamisen päävastuu ja työmäärä keskittyisi rajatulle admin-joukolle, ja jos heitä ei satu olemaan paikalla, käynnissä olevaa spämmäystä ei voisi kovin tehokkaasti pysäyttää.
Kun asiaa mietin, alan kyllä olla aika mieltynyt ajatukseen, että linkkien luokittelussa voisi jotenkin hyödyntää wikin historiaa. Sitä kun on vaikea kenenkään manipuloida, koska sellainen vaatii sekä aikaa että yhteisön hyväksyntää.
Jos siis hiukan jatkan ajatuksen kehittelyä, jossain wiki-moottorin uumenissa voisi olla luettelo kaikista wikissä koskaan olleista ulkoisista linkeistä (jokaisesta erikseen, vaikka ne osoittaisivat samaan paikkaan), sekä kunkin elinaika. Tästä luettelosta laskettaisiin jollain sopivalla metriikalla todennäköisyys sille, että linkin kohde on hyväksyttävä. Metriikka voisi olla jopa niinkin yksinkertainen kuin elinajan maksimi, mutta siinä kannattaisi ehkä jotenkin huomioida myös lisäysten ja poistojen lukumäärä.
Periaatteessa systeemiä voisi tietysti hienosäätää muillakin esitetyillä tavoilla, kuten analysoimalla linkin sisältöä tai sijaintia jotenkin, mutta kaikki sellainen olisi luultavasti turhaa ja ylimääräistä. Spämmeri nimittäin huolehtisi tarvittavasta säädöstä ja painotuksesta itse puolestamme: Viidestäkymmenestä mainoslinkistä, jotka kaikki poistetaan melkein saman tien, tulee vain niin valtava kontrasti hyväksyttyyn linkkiin, joka on ollut paikallaan edes päivän (saati viikon, kuukauden tai vuoden), että hyvinkin yksinkertainen ja konservatiivinen algoritmi selviäisi luokittelusta helposti.
Systeemiä olisi lähes mahdotonta huijata tai väärinkäyttää, sillä ainoa tapa saada mainoslinkkejä menemään läpi suodatuksesta olisi se, että kukaan ei viitsi (tai huomaa) siivota niitä - ja toisaalta häirikön olisi myös hyvin vaikea saada oikeita linkkejä kieltolistalle sen jälkeen, kun ne ovat olleet olemassa jo pitempään. Ja kaikki toimisi kollektiivisella moderoinnilla, automaattisesti ilman kenenkään nimetyn ylläpitäjän vaikutusta.
Niitä tilanteita varten, joissa luokituksessa kaikesta huolimatta tulee huteja, voisi sallituista ja kielletyistä linkeistä generoida wikisivun, jossa ylläpitäjä voisi säätää hyväksymisrajaa tai manuaalisesti sallia tai kieltää yksittäisiä linkkejä. Luulen että näitä säätöjä tarvitsisi tehdä hyvin harvoin.
-- Juha Koivisto 7.10.2004
Jatkona vielä, että edellinen ei tietenkään vielä poista tarvetta siivota kutakin mainoslinkkiä vähintään kerran, mutta tämä noin pohdiskeluna tähän käsillä olleeseen tilanteeseen (jossa sama kaveri käy lisäämässä mainoksensa monta kertaa) ja vaivattomampana vaihtoehtona käsin kootulle kieltolistalle. Tietenkin algoritmiin voisi myös lisätä heuristiikkaa, jolla yritetään siivota roskat pois jo ensimmäisellä kerralla, mutta sitä on jo astetta vaikeampi tehdä luotettavasti.
-- Juha Koivisto 7.10.2004
Juhalla on hyviä ajatuksia.
Itselleni tuli mieleen seuraava idea. Spämmeri haluaa sivulleen näkyvyyttä hakukoneiden kautta. Laitetaan aluksi kaikkin historiasivuihin hakuroboteille kielto. Laitetaan myös muutettuihin sovuihin kielto. Kun sivun muuttamisesta on kulunut tarpeeksi aikaa, esim 8 tuntia, automaatti käy ottamassa kiellon pois. Näin käyttäjät saavat muutaman tunnin aikaa siivota spämmisivut pois ennen kuin ehtivät arkistoitua. Ainoastaan, jos sivuun ei määräajassa kosketa, se pääsee arkistoitumaan. Määräaika voi olla kiinteä, tai siitten vaihdella vuorokaudenajam mukaa, niin että yöllä tulleet roskat ehtii siivota aamulla. Lisäksi voisi administraattoreilla olla oikeus muuttaa sivun statusta.
-- Matti Siivola 7.10.2004
Jees, näyttää toimivan ihan hyvin tuo spammisuodatus, jonka Janne lisäsi. Spämmerit tietysti keksivät uusia osoitteita, mutta kai domainin rekisteröinti Kiinassakin jotain maksaa, joten eiköhän ne joskus lopeta. Ongelmia voi tietysti tulla dyndns-tyyppisistä redirect-palveluista, joita olisi ikävä kieltää maailmanlaajuisesti, kun niiden takana voi olla jotain hyödyllistäkin. Joka tapauksessa regexpit ovat tässä aivan ehdoton plussa.
Silti on hiukan turhauttavaa cut-and-pasteta poistettuja linkkejä kieltosivulle. Systeemiä voisi kehittää niin, että palautettaessa sivua alle N hetken (esim. 1 vrk) ikäisen version tilalle wiki kysyisi esim: "Sivun palautus poistaa seuraavat ulkoiset linkit. Haluatko lisätä ne kieltolistalle?" Alla voisi olla kyseiset linkit listattuna ja jokaisen vieressä vaikka checkbox, josta voi poistaa rastin, jos joukossa sattui olemaan hyödyllisiä linkkejä. Ja alla napit "kyllä"/"ei". Häiriköinnin ja kämmien välttämiseksi kysymystä ei tarvitsisi esittää, jos korvattava sivu on ollut olemassa yli määräajan. Myöskään jo kiellettyjä linkkejä ei tarvitsisi listata, niin niitä ei joutuisi käsittelemään enempää kuin kerran, jos poistetaan samaa spämmiä monelta sivulta.
Tämän lisäksi kieltosivua voisi tietysti edelleen editoida myös käsin ja lisätä sinne esim. regexpejä. (Pitäisi ehkä harkita myös sitä, että automaattilisäys generoisi domain-nimistä suoraan regexpit, jotka matchaavat com/net/cn/(jne.)-päätteisiin.)
--Juha Koivisto 11.10.2004
Katsoin äsken statistikkaa ja virheviesti oli jo katsottu 87 kertaa. Näyttääpä purevan.
-- Matti Siivola 12.10.2004
Mjoo, mutta siellä on kaikki ne, jotka ovat käyneet katsomassa ko. sivua - mukaanlukien kaikki ne RecentChanges -addiktit, jotka haluavat lukea ihan kaiken :). Pikaisesti logifileistä greppaamalla näyttää siltä, että sinne on viime yönä jäänyt yksi spämmeri jumiin. Pitänee vielä sulkea tuo kieltosivu niin, ettei sitä voi muokata kuin käyttäjätunnuksen asettaneet.
-- JanneJalkanen, 12.10.2004
Spämmin torjumiseksi on nyt attribuutti rel=nofollow. Katso lisää . Voisiko tuon attribuutin laittaa kaikkien rekisteröimättömien käyttäjien lisäämiin linkkeihin?
-- Matti Siivola 20.1.2005
On tulossa, kunhan ehdin. Lisään sen sitten *kaikkiin* ulospäin meneviin linkkeihin, koska on tällä hetkellä erittäin vaikeaa erottaa toisistaan rekisteröidyn ja rekisteröimättömän käyttäjän lisäämiä linkkejä. Niille, joiden mielestä idea tuntuu helpolta, suosittelen tutustumaan JSPWikin koodiin, wikien filosofiaan ja ymmärtämään ne syvällisesti. :)
(Tuo nykyinen palikka pysäyttää muuten jotain 99% spämmäysyrityksistä lokifailien perusteella.)
-- JanneJalkanen
Jos linkkejä on hankala erottaa, niin eihän sitä sitten kannata tehdä. Tuli vielä mieleen, että asiallisista linkeistä tuon voisi ottaa pois. Asialliset lisäykset voisi tunnistaa esimerkiksi siitä, ettei sivuun ole koskettu vaikkapa vuorokauteen.
-- Matti Siivola 20.1.2005
Keksiikö joku, miksi roskapostisuodinlistaan lisätty lfoleks piste org ei ole toiminut? Entä mihin joku pyrkii lisäämällä sivuille pelkkiä numerosarjoja?
-- Juha 18.7.2006
Varmaankin siksi että se ei ole lfoleks, vaan 1foleks, ero on siis ällän ja ykkösen välillä. -Ilkka
Tuo spämmi alkaa taas käydä hiukan rasittavaksi. Toivomuslistalla jälleen ominaisuus, jossa voisi estää lisäämästä liian monta ulkoista linkkiä kerralla. Määrä voisi olla jopa niinkin vähän kuin "yli yksi". Haittaisi toki myös legitiimiä käyttöä toisinaan, mutta kuitenkin suhteellisen harvoin. (Lisäksi jossain voisi olla lista sallituista poikkeuksista, kuten sensei's ja suomigo (ja sen voisi periaatteessa generoida automaattisesti wikissä jo olevista linkeistä), ja admineilla tms. ryhmällä lupa rikkoa sääntöä, jotta sivujen siirtäminen onnistuu helpommin).
-- Juha 24.7.2006
Olen hieman skeptinen idean toimivuuden suhteen - ainakin omaan blogiini tulee tasan tarkkaan vain yksi spämlinkki kerrallaan. JSPWiki.orgissa tulee myös usein vain yksi tai kaksi linkkiä.
Sen sijaan, jos joku haluaisi tehdä Akismet-pluginin, se olisi kerrassaan påp.
--JanneJalkanen, 26-Jul-2006
Main Page tuntuu olevan spämmerien suosiossa. Kannattaisiko senkin muokkaaminen salliia vain rekisteröityneillä käyttäjille?
-- Matti 20.9.2006
Spämmiä ilmestyy harva se päivä. Onko mitään haittaa, jos asettelee spämmerien suosimille sivuille samoja suojausasetuksia kuin etusivulla on? Ehdotan myös, että käytetään spämmiä poistaessa kommenttia, jota ulkomaalaiset eivät tunnista späämmiin liittyväksi, esimerkiksi "kenkää sikanaudalle".
-- Matti 17.10.2006
Ymmärrän tuskan, muutamia huomioita:
Editoinnin rajoittaminen johtaa vähitellen siihen, että lähes kaikkiin sivuihin tulee rajoitus, kun spämmeri etsii ei vielä suojattuja sivuja. Onko se hyvä? Oppivatko spämmerit rekisteröimään tunnuksia? (ainakin joku on jo osannut sen.)
Tuo kommentin käyttö on muuten hyvä, mutta spämmerille on hyvin helppoa vain kopioida recentchangesta jokin spämmin poisto kommnentti. Itse asiassa epäilen yrittääkö kukaan kukaan spämmääjä ymmärtää lainkaan suomea...
Nykyisellään näyttää, että tuota roskaposti suodatin listaa päivitetään aika laiskasti. Seurauksena spämmeri voi käyttää samaa domain nimeä (ja muita detaljeja) monta kertaa. Pitäisikö suodattimen ylläpitoa helpottaa?
-- Lauri Paatero 17.10.2006