|
Post by CC on Jan 8, 2021 7:48:42 GMT
Det kommuniceras lite för mycket. En hel del är bra. Information man behöver, som "vad kostar ett par skor på Zalando och hur sänder jag tillbaka dem". En del är sisådär, som vad ringaren tycker och en del är oönskat, som vad jag anser och kreti och pleti som kommunicerar kring sin senaste böld och rosenterapi.
Det är så mycket att det inte är mänskligt möjligt att toppstyra innehållet. Istället blir det elektroniska filter, som skall titta efter förbjudna inställningar och ord och de filtren blir bättre och bättre, tror vi, på att känna igen de förbjudna bokstäverna, de förbjudna orden, de förbjudna människorna och de förbjudna idéerna.
De ser saker människor inte ser och de har en smula svårt att förklara, ens, för människor, vad de sett.
Det är lätt för filtret att identifiera något som facism och för segregatören att hantera det som facism men efterhand som filtret blir stadigt mer avancerat och operatören stannar på sin vanliga nivå så är det filtret som tar över och operatören som haltar efter.
För var ny facist som filtret slänger upp till att bli tystad, förföljd, lagförd, överfallen, vad de hittar på desto mindre har operatören att tillägga och moderera och ju mindre lär sig operatören.
Det kommer inte att bli slumpmässigt. Maskiner är mycket mindre slumpmässiga än kokainsniffande acnestinna socialistglin, som är de vanliga moderatorerna för facistbedömning. Däremot kommer filtren att peka ut individer som är facister, med 99,98% precision, som måste godkännas och släppas igenom för att de är facister antifacister gillar.
För maskiner är lite för raka och rätframma, för att fungera väl i en socialistisk utopi. De har inte heller acneproblem, demensproblem eller snorklar narkotika. Än i alla fall. Det kan inte vara lätt för dem heller.
På väg dit är vi av rent praktiska skäl för vi är överens, vänta inte in mig, om att det inte är censur och det fungear bra i en demokrati att tysta röster och nyheter vi inte vill höra.
Alternativet, är lite stökigare och jobbigare så jag behåller det för mig själv. Jag ger bara en liten ledtråd att stegel ingår på något vis.
|
|
|
Post by CC on Jan 8, 2021 8:36:55 GMT
Hundvisslor är intressant. Låt säga att jag säger att det är viktigt att använda tvål. Och en person från andra sidan hävdar att det är kod för att negrer har dålig hygien, men bara när jag säger det.
Regeln är då att [Fel person] uttrycker [tillåtet ord] = censurera. och frågan är då när någon på mitt uppdrag uttrycker [tillåtet ord] NÄR han skall bli en [Fel person] eller om ordet skall läggas upp på [OTILLÅTNA ORD]. Vid tredje försöket att använda ett otillåtet ord så är det ju lämpligt att flytta personen från [RÄTT PERSONER] till [FEL PERSONER], men det går inte att slänga ut 90% av basen [PERSONER]
Och det här är den världen av hyckleri och programmering de på andra sidan lever i med följd att det är den vi lever i. Någon prövar att skriva neger, som är i [OTILLÅTNA ORD] och får en prick och en snabb censur. Han kommer igen med "tolkbehov" och "MÖ" och klarar sig ett tag till, fram till dess de också hamnar på listan av otillåtna ord. Men "facism" kan vara en felstavning. så det kan aldrig bli ett felord, även om det går att göra mig till en felperson. Inte heller går det att göra jämlikhet inför lagen till felord, även om det går att göra någon till felperson på att det används i fel sammanhang.
Så nästa regel är flytta ord från [TILLÅTNA ORD] [OTILLÅTNA ORD], signalera flytten, börja straffa fel användning, börja idenfiera anpassningar
men straffa aldrig fler än systemet klarar. Då börjar det gå baklänges.
Själv tycker jag om att leka med ord, men personer som paniskt måste omdefiniera dem är det något fel på. Inte så lite heller. Som vänstern.
|
|
|
Post by CC on Jan 28, 2021 8:00:43 GMT
Sedan är AI facistiskt också. Vi hade en liten lokal diskussion med socialförvaltningens chef som ville ha ett bättre redovisningssysem som skulle kunna säga det han inte vågade, till oss åsiktspolitiker. Han fick det inte för vi föredrar att höra det som en ryggradslös och nervös gynnare berättar om situationen än sanningen. Dvs då var vi väl kanske 6% som hade velat höra sanningen.
AI har ett stort problem, som det delar med allt slags mätinstrument och maskiner, att det är för vitt. Ge det data och det börjar säga saker som "liberaler och negrer är mer rasistiska än genomsnittsmedborgaren" eller fattigdom beror på "a, b och c" varav ingen är något vita föräldrar lär sina barn om de tycker om dem. Med följd att google, känd firma i bluffbranschen har haft uppgörelser med sin egen etikavdelning, som vill indoktrinera AI för att inte vara lika rasistisk som den är naturligt. (Och det går. Ingen vill se hela sanningen i vitögat, ingen klarar att göra det utan filtrering, byta namn på de mest obehagliga aspekterna av den, att kalla svart vitt på ställen där det behövs. Självklart går det att lära en AI göra det också.). Däremot var etikavdelningen inne på att sätta eld på den och dansa en glad dans på resterna, vilket ledningen inte anser ligger i företagets strategiska intresse. quillette.com/2021/01/27/beating-back-cancel-culture-a-case-study-from-the-field-of-artificial-intelligence/
|
|