Det är dags att kräva mer – eller åtminstone att börja filtrera

På de flesta stora papperstidningars webbplatser kan man kommentera artiklarna, något som länge var möjligt endast på bloggar, online-fanzine, webbtidningar och andra “onlinemedia” men som under 2000-talets senare hälft slog igenom med full kraft även på gammelmedias sajter. Först tyckte jag att tidningarna var sega med att införa kommentarsmöjligheter, men när det nu går att läsa folks kommentarer på snart sagt alla sajter där nyheter och aktuella händelser presenteras har jag ändrat mig. Jag vill inte vara med längre.

dn.se går det att kommentera nästan alla artiklar anonymt. Det enda du behöver fylla i är “Namn”, men självklart inte ditt riktiga namn. Möjligheten att vara anonym på nätet har jag alltid värnat om och tycker fortfarande att den är viktig ?? men när jag ser vad som händer med kommentarstrådar på dn.se eller aftonbladet.se blir jag mer och mer övertygad om att det är dags för tidningarna att antingen stänga av kommentarsmöjligheten helt och hållet eller också införa en inloggning kopplad till ett viktigare konto. DN är på god väg när man låter folk logga in med sitt Facebook-konto för att identifiera sig. Om de gjorde det till ett krav kanske nivån skulle höjas på diskussionen.

För sanningen är ju tyvärr att när folk samlas på nätet, särskilt runt en artikel eller text med brännhett stoff, blir folksamlingen snabbt en pöbel. Smårasistiska tillmälen blandas med “statistik” tagen ur luften, alla kallas för idioter kors och tvärs och väldigt, väldigt lite av värde går att läsa i en kommentarstråd på dessa sajter. Tyvärr. För egentligen är det just möjligheten till det offentliga samtalet som är intressant med bloggar, mikrobloggar och alla typer av onlinepublicering.

Kanske är det så att vi måste ge avkall på möjligheten till anonymitet på de ställen där den här typen av avarter uppstår. På internetdagarna.se har vi alltid haft öppet för anonyma kommentarer, som standard är på en WordPress-sajt, och jag tror att det bara är en enda gång som vi inte godkänt en kommentar. Uppenbarligen beror nivån väldigt mycket på vilken sajt som kommenteras, men frågan jag ställer mig varje gång jag mot bättre vetande lockas in i en kommentarstråd på en större svensk sajt är om man verkligen vill ha den typen av innehåll på sin sajt, under sin logotyp. Innehållet på Aftonbladet är ju kanske inte det bästa till att börja med, men när innehållet sänks ytterligare av den otroligt låga kommentarsnivån är det läge att tänka om, tycker jag.

Slashdot har löst det här på ett rätt elegant sätt, tycker jag. Genom ett betygssystem i skalan 0-5 för kommentarer, där anonyma kommentarer automatiskt får en lägre poäng från början än inloggade medlemmars kommentarer, och möjligheten för alla medlemmar att betygsätta andra kommentarer har man byggt en hierarki som funkar rätt bra. Som besökare kan du själv välja vilken lägsta nivå du vill läsa kommentarer från, och kan därmed sätta ribban högt eller lågt. Väljer du att läsa alla kommentarer som postats får du mycket trams, men missar inget. Väljer du istället att bara läsa kommentarer som fått betyg upp till tre eller högre är det generellt mycket bättre nivå på innehållet.

Om jag vore ett stort mediebolag med en stor sajt med mycket innehåll skulle jag genast utvärdera anonyma kommentarer och fundera på ett rankingsystem liknande Slashdots. Inte bara för att man upplåter plats till pöbeln, utan främst för att man bör värna om sitt varumärke. Det fria ordet är viktigt, självklart. Men vi har nått en gräns där det inte längre är rimligt att man får vara anonym alltid, hela tiden.

(Det här är ingen ny fråga, fler har skrivit om problematiken.)

/M;

Hur man kommunicerar som kommunikationsbyrå

Jag har plötsligt hamnat i en situation på mitt jobb där jag behöver sondera terrängen efter produktions- och/eller kommunikationsbyråer. Eftersom det var ungefär tio år sedan jag gick från att vara köpare till att vara säljare av kommunikationstjänster så var det med nya ögon jag gjorde en klassisk Googlesökning efter “kommunikationsbyrå Stockholm“.

Vad händer när man gör en så bred Googling? Jo, först av allt ser man självfallet de som köpt annonsplats hos Google för att visas vid min sökning. Här låg tre byråer med olika hög profil men alla med relativt slagkraftiga budskap på sin begränsade yta:

Googleannonser på "Kommunikationsbyrå Stockholm"

?verst låg “?kesson & Curry” så de fick mitt första klick. Jag är ju trots allt en dum köpare som just har gjort världens bredaste sökning. Troligen vill jag ha dem som ligger högst upp! Inne hos “akessoncurry.com” (.com-domän! Redan här började det osa katt) blev jag välkomnad med ett Flashbildspel som visade att byrån blivit “nominerade i tre kategorier” till Guldbladet 2009. Det lät spännande så jag tryckte på bilden, som hade en trasig länk så jag fick ett felmeddelande slängt i ansiktet. Olycksfall i arbetet? Kanske, men här har man redan uppnått tre fatala misstag för mitt köp (.com-domän, Flash och trasig länk ?? men det är ju tre önskningar i en, det går ju inte!) så jag gick vidare till tvåan.

Grand River öppnar rätt starkt med en ren webbdesign och tydligt (om än lite väl fluffigt) budskap om att 1+1 kan bli 3, så jag blir nyfiken nog att klicka vidare. Under “Tjänster” listar man det som byrån kan hjälpa mig med. Här finns såväl marknadsundersökningar och kommunikationslösningar som grafisk produktion, men inget av valen ger konkreta exempel på vad man erbjuder, utan endast mera copytext om att “Vi försöker uppnå en känsla hos mottagaren att just den här organisationen vill kommunicera med ‘mig'”. Men så bra då. När jag sen klickar på “Kunder” för att se några case får jag bara mer flufftext och fortfarande inget som helst konkret förevisat. Inga bilder, inget som visar vad man faktiskt producerat. Det här är totalt #fail för mig som köpare. Jag vill se mer innan jag tar kontakt.

Vidare så till trean i listan – Frosting. Nu börjar det faktiskt likna nåt! Frosting har en snygg sajt, dock i AIK-färger (men jag förlåter dem för den här gången) och balanserar på precis rätt sida om vad som är vettigt i användande av Flash och textbilder. Under “Om oss” berättar man faktiskt rätt utförligt och konkret om företaget med sina medarbetare och sitt arbetssätt. Det här känns inbjudande och relevant för mig som köpare. När jag sen går vidare till “Portfolio” har man en stor mängd case med bild och beskrivning, och det går faktiskt att läsa rätt mycket om varje case. Dessutom går det att sortera på vilken typ av uppdrag man haft (webb, print, event, etc) och beskrivningstexterna är precis lagom långa för att man ska kunna få insyn i vad man gjort. Den enda kritiken jag har här är att det är lite otydligt vad som är länkar och inte, eftersom både länkar och underrubriker är gula, utan understrykning, men det är ju en petitess i sammanhanget.

Tre byråer, tre olika sätt att presentera sin verksamhet. Endast Frosting lyckades övertyga överhuvudtaget.

Nu kanske ni tycker att jag är dum som bara trycker på sponsrade länkar. Men nejdå, jag tittade faktiskt på första sidan av sökresultat också. Här dominerar Tullbergs, som uppenbarligen lyckats med sin SEO. Man är den ENDA kommunikationsbyrån som finns med på första sidan alls! Alla andra länkar är till kataloger, aggregerare och diverse mer eller mindre spammigt automatgenererat innehåll. Det här borde vara en väckarklocka för de företag som tycker att de ska hålla på med kommunikation. Jag säger inte att alla kan synas på förstasidan hos Google, självklart funkar det inte så, men när ett företag dominerar så fullständigt som Tullbergs gör här måste de få rysligt många besökare från Google beroende på hur vanlig min sökning nu är.

Det verkar som att det kommer att bli svårt för oss att hitta en byrå, och det verkar som att det är svårt för byråer att kommunicera på webben. Om man alls vill sälja webb borde man vara mycket bättre på att producera sin egen webb. Jag vet av egen erfarenhet att det lätt blir så att den egna sajten hamnar längst ner på prioritetslistan, men efter att ha ställt mig “på andra sidan” inser jag ändå mer än någonsin förr hur viktigt det är att ha en bra och tydlig sajt för sitt företag.

/M;

Mina erfarenheter från streaming av Internetdagarna

Skärmavbild 2009-11-19 kl. 19 nov, kl 14.41.07, v 47

Under Internetdagarna 09 hade jag tagit på mig att genomföra ett antal livesändningar från seminarier och keynotes. Eftersom det inte hade gjorts någon gång under tidigare Internetdagarna var det här ett experiment både för .SE och för mig. Vi valde att göra det själva, och i liten skala, eftersom vi inte hade någon uttalad budget och inte heller var säkra på intresset för sändningarna.

Under sensommaren och hösten testade jag olika typer av utrustning för eventet. Vi köpte in en kamera, en Canon Legria HV40 och testade ett antal olika tjänster och mjukvaror för själva streamingen. Valet föll på Livestream, en amerikansk tjänst som används av många stora sajter. Anledningen till att vi valde Livestream var främst att vi med ett premiumkonto hade möjlighet att skapa en egen Flashspelare, som vi kunde anpassa så att den passade in på förstasidan på internetdagarna.se.

Livestreams premiumkonto kostar 350 USD i månaden, och dessutom betalar man för den bandbredd och lagring man faktiskt använder. Jag gjorde lite överslagsräkningar och fick fram att det inte skulle bli så dyrt, vilket visade sig vara fel. Mer om det senare.

Möjligheten att kunna designa sin egen Flashspelare var som sagt det stora skälet till att vi valde Livestream, men även kvaliteten på strömmen vid våra tester övertygade. Jag använde både Livestreams Flashbaserade webbklient för att strömma, såväl som deras Windowsprogram, Procaster. Vid mina tester tyckte jag att Procaster gav bättre kvalitet vid låga bitrates, och jag hade dessutom möjlighet att skräddarsy bitrate på video och ljud, och det fanns flera andra inställningsmöjligheter. Jag beslutade därför att vi skulle använda Procaster vid livesändingarna.

Livestream har en “ren” Flashspelare för nedladdning som jag kunde använda för att skapa vår egen spelare. Det var väldigt lätt att anpassa spelaren efter våra behov, och vid mina tester såg allt bra ut. En vecka innan Internetdagarna besökte jag Stockholm City Conference Center för att testa på plats, och såg att ljusförhållandena var väldigt dåliga, men det var för sent att göra något åt det. Vi hade redan beställt ljudkablar, nätverkskablar och strömkablar fram till de platser jag skulle befinna mig vid sändningarna.

Den 3 november var det så dags. Jag åkte till eventet tidigt på morgonen för att reka och ställa i ordning. Ljud och nätverk fanns framdraget, men jag upptäckte då att nätverket jag fick ansluta till var skyddat av en brandvägg, vilket krävde att jag gjorde en sessionsinloggning på datorn. Sagt och gjort, jag loggade in och nätverket flöt på bra. Ljudet fick jag tappat från mixerbordet i en kabel som jag sedan anslöt till den lilla mixer jag själv använde för att reglera volymen in i datorn. Inför första sändningen la ljudteknikern ut musik i kabeln och jag testade nivåer så att allt lät bra.

När det var dags för att börja första sändningen var det mesta på banan – sajten låg uppe, strömmen såg bra ut, men jag upptäckte genast att ljudet från mikrofonerna som kom i min kabel var kraftigt distat. Där jag satt mitt i hörsalen kunde jag inte springa bort till ljudteknikern och försöka göra något åt det, så ljudet fick helt enkelt vara distat. Det här problemet gick att åtgärda till följande seminarier, så det var bara den första sändningen som hade riktigt dåligt ljud, även om flera andra sändningar också hade långt ifrån perfekt ljud senare.

Efter några minuter började så problemen. Jag kunde hela tiden följa utvecklingen i Procaster, som visade exakt hur många rutor per sekund (fps) som programmet skickade ut på nätet. Vid seminariets början låg vi på runt 20 fps, vilket är mer än godkänt. Men efter några minuter började siffran att dala. 15 fps, 10 fps, snart var vi nere i 3 fps och sändningen såg ut som någon slags hackigt bildspel snarare än film… Jag försökte febrilt hitta källan till problemen, och upptäckte att jag inte hade någon som helst kontakt med Internet från något annat program på datorn. Det gick inte att surfa, det gick inte att pinga. Jag insåg att min nätuppkoppling hade strypts av någon anledning. Till slut dog strömmen helt och hållet, och jag blev tvungen att starta om datorn för att få komma ut på nätet igen. Mitt i alla dessa problem började dessutom mjukvaran för sändning, Procaster, att strula, och jag fick starta om programmet nån gång efter att det kraschat. Det här hände aldrig under mina tester, så jag misstänkte att de hade något att göra med problemen med Internetaccessen.

Efter detta första seminarium tackade jag mig själv för att jag varit förutseende nog att lägga in en ordentlig paus mellan första sändningen och andra. Jag hade nu ett par timmar på mig att försöka reda ut vad som gått fel och åtgärda det. Jag ropade ut min förtvivlan på Twitter och fick omgående ett erbjudande om hjälp från Björn Falkevik, stjärnan på webbsändingar. Björn ringde mig direkt (vilken hedersman, denne Björn!) och försökte på alla sätt hjälpa till att ta reda på exakt vad som gått fel. Björn hade själv sänt från samma konferenshall tidigare och visste bland annat att det gällde att se till att få Internetaccess utanför brandväggen.

Jag insåg genast att jag måste göra något åt nätverket, och bad därför Stockholm CCC om att kablarna jag fått framdragna till respektive rum nu skulle ge mig access till Internet utanför brandväggen. Det skulle man ordna, även om det kunde bli lite ont om tid på sina ställen. Jag bestämde också genast att jag inte längre vågade lita på Livestream eller Procaster, och bestämde därför att jag skulle prova med Bambuser, fast jag då skulle vara tvungen att slänga bort min egen Flashspelare och istället bädda in Bambusers spelare på internetdagarna.se.

Resten av Internetdagarna sände jag alltså med Bambuser, och det var en enorm skillnad. Den Flashklient som Bambuser har för att sända direkt från sin dator funkade klockrent, helt strulfritt och extremt smidigt. Kvaliteten var något sämre än med Livestream, men eftersom ljuset och andra förutsättningar var så dåliga på plats var det knappast något som påverkade slutresultatet nämnvärt. Ljudet funkade bra i de flesta fall, även om det fortfarande var problem med distorsion i vissa rum.

Eftersom jag ändrat min beställning gällande Internetaccess på plats fick jag även fortsättningsvis problem med nätet till och från. I de fall jag hade fungerande Internetlina gick webbsändningarna helt utan problem. Någon gång funkade helt enkelt inte kabeln alls, och då fick jag sända på konferensens WiFi-nät, vilket gick bra en av gångerna och sämre en annan.

Vilka slutsatser och lärdomar drar jag då av allt det som hände? Först och främst måste jag ge ordentligt med beröm till Bambuser. Här har vi en tjänst som bara fungerar. Nästa gång jag ska strömma video (vilket jag ska göra den 10:e december från “Misstag och floppar” så tänker jag fortsätta använda Bambuser, även om jag tittar på att använda Wirecast eller någon annan mjukvara för att få bättre kontroll över innehållet. Det är lite synd att jag inte kan göra en egen Flashspelare till sajten, men jag kan leva med det om det bara funkar som det ska.

En annan sak som är trevligt med Bambuser är att tjänsten är gratis. Livestream har också en gratistjänst, men den premiumtjänst vi köpte för att kunna göra vår egen spelare kostar som sagt 350 dollar i månaden. Sen tar man också betalt för bandbredden som används, och här hade jag räknat ordentligt fel. Efter den enda utsändning vi gjorde med Livestream så såg jag att vi dragit på oss ungefär 150 dollar i bandbreddskostnader! Detta på runt 70-80 tittare under nån timmes tid. Hade vi fortsatt att använda Livestream under hela Internetdagarna hade det hela blivit en mycket dyrare affär.

Permanenta länkar – vad är det?

I en debatt på mindpark.se stångades jag en stund med Joakim Jardenberg om vikten av absolut permanenta länkar på webben. Jag uttryckte min oro för att Jardenberg är på marsch mot ett förstelnande Internet och att göra ett stilleben av webben, eftersom han förespråkar att en länk är en länk är en länk, och absolut aldrig får brytas.

Jag förstår mycket väl vad han menar, det är tråkigt att bryta inlänkar och indexering i Google och andra sökmotorer, men jag är av uppfattningen att webben likt Internet i stort är under ständig förändring, och att vi inte kan bli för nostalgiska vad gäller en teknik eller något innehåll på webben. Och självklart förstår jag det positiva i att länkar inte bryts, men jag tycker helt enkelt att det finns många tillfällen då nackdelarna väger tyngre än fördelarna.

Nå – Jocke gick till så hårt angrepp att jag la några minuter på att slå hål på hans teorier genom att hitta trasiga länkar på en sajt han själv ansvarat för: hd.se. Lättare sagt än gjort skulle det visa sig, för man har verkligen ansträngt sig till det yttersta för att bevara gamla länkar.

Jag hittade till exempel följande länk genom att söka på Google: En artikel från Elöverkänsligas Riksförbund från 2004. Här länkas en artikel på hd.se som handlar om att Båstad sagt nej till nya 3G-master. Länken är som följer: http://hd.se/ArticlePages/200409/28/20040928161250_-Alla_anvandare-191/20040928161250_-Alla_anvandare-191.dbp.shtml

Ouch. Inte världens snyggaste URL direkt, men så ser den ut. Jag tänkte att jag hade hittat guldkornet jag letade efter, men blev snopen när länken faktiskt fungerade, och dessutom ledde rätt: http://hd.se/bastad/2004/09/28/baastad_saeger_nej_till_nya_3g/

Här har man ju uppenbarligen lyckats med att behålla en gammal inlänk så att den funkar, och leder till den nya länken. Imponerande! Finemang! Alla är glada. Eller? Jag kan inte låta bli att fundera lite på hur man gått tillväga. Den gamla URL:en innehåller datum för artikeln (20040928) och vad som gissningsvis är ett internt ID för artikeln från det CMS man använde 2004 (161250). Den nya URL:en innehåller inget ID alls, utan använder en modern permalinkstruktur där titeln från artikeln blir identifikationen (baastad_saeger_nej_till_nya_3g), så hur görs kopplingen från den gamla URL:en till den nya?

Här får jag gissa. HD kanske använder samma CMS nu som 2004, och i såna fall har artikelns ID troligen inte ändrats sen dess, och det är lätt att göra ett nytt fält i datbasen för “snyggare URL:er”. Men desto troligare är att HD har bytt CMS sedan 2004, och då kan man ha gjort på två olika sätt:

1) Man kan ha behållit alla ID-nummer från det gamla CMS-systemet när man importerade innehållet till det nya.

Det är ofta komplicerat, och en vanligare lösning är att man istället

2) häller in gamla ID i ett separat fält för detta (oldID, anyone?) för att bibehålla kopplingen.

Har man valt lösning (1) är det hatten av och bara att köra på. Det är väldigt lätt att göra en “rewrite” på gamla URL:er till nya i det fallet. Har man istället använd lösning (2) börjar jag få rätt i min argumentation på mindpark.se. För hur många generationer av gamla system ska man egentligen underhålla innan det blir löjligt? Visst, en generation kan man utan större problem underhålla för att ha permanenta länkar, men nästa gång man byter CMS, blir det ytterligare en generation av ID att hålla ordning på då? Och nästa gång, och nästa gång…

Min princip ligger fast – det ?R inte alltid försvarbart att till varje pris behålla länkstrukturer när man gör ett större systembyte. Det är lovvärt om det går att göra, och det finns ju inga nackdelar med att göra det om det är enkelt. Men om det är svårt, om det kräver att man hackar speciallösningar, och om det på sikt ändå är ohållbart – var går gränsen?

Och det som jag ser som det större problemet i den här frågan – ska vi verkligen betrakta webben som permanent? Kan vi inte acceptera att länkar bryts då och då? Finns det inte en ganska stor risk att vi på sikt hamnar i en okontrollerbar härva av föråldrade länkar som ska underhållas i all evighet?

/M;

GTUG Stockholm

IMG_0038

Igår kväll samlades runt 50 extremnördar för det allra första mötet i GTUG Stockholm – Google Technology User Groups, anordnat av den sedvanligt speedade men briljante Peter Svensson som också var kvällens enda föredragshållare.

Tyvärr blev jag tvungen att avvika innan det som kanske hade varit roligast att se – en hemlig Augmented Reality-app för Android som Peter jobbat fram. Men redan tidigare på kvällen bjöds vi på en genomgång av Google Code, främst AJAX APIs och dess Playground, ett riktigt snyggt och smidigt sätt att snabbt komma igång med Googles AJAX-prylar. Sen en snabb demo av Google Wave där jag hjälpte Peter genom att vara inloggad i Wave samtidigt som honom för att visa kollaborativ redigering. Peter la även till DiceBot till “vågen” för att visa hur serverbaserade script kan agera deltagare i diskussioner.

Jag försökte bambusra lite från eventet, men tyvärr var det lite för mörkt och dåligt ljud för att bli nåt användbart, men om du VERKLIGEN är nyfiken kan du se några korta klipp här.

Jag ser redan fram emot nästa GTUG-möte och hoppas på fler intressanta demos – kanske från fler som gjort intressanta Android-saker i Sverige?

/M;

Hur man misslyckas med distribution av digitala varor

Apple har släppt en ny version av sitt operativsystem, Mac OS X, kallat Snow Leopard. Jag som är varm anhängare av OS X ville självklart köpa en uppgradering för att installera på min arbetsmaskin. Eftersom allt som behövs för att installera det nya operativsystemet är en DVD-skiva från Apple borde det inte vara något problem att få tag i en. Döm så om min förvåning när jag anlände den lokala Mac-nasaren på Södermalm i Stockholm och fick höra att “Snow Leopard är slut”.

Slut? Hur tar en digital vara slut? Det går ju att kopiera den i oändlighet. Men här ser vi begränsningarna i påtvingad fysisk distribution av något som borde vara digitalt. Det finns ingen brist på DVD-material i världen, så en brist på installationsskivor borde vara rent logistiskt framkallad, dvs antingen har Apple inte tillverkat tillräckligt många eller så har grossisten/återförsäljaren inte tillräckligt i lager för att täcka behovet.

Men varför är det så? Det handlar om en några gigabyte stor fil som ska distribueras. Man skulle kunna tänka sig att Apple sålde filen till mig och jag fick ladda ner den själv och bränna, så slapp man distributionen. Man skulle också kunna tänka sig att återförsäljaren har en egen brännare och får licens från Apple att bränna hur många skivor som helst,  bara de höll koll på antalet och betalade per skiva.

Antalet lösningar är många, men den allra sämsta lösningen måste vara den man har valt – att endast distribuera färdigtryckta skivor från en fabrik någonstans.

/M;

The Mobile Homes – Today Is Your Lucky Day

Först en anekdot. Min vän Anders jobbade en gång i tiden på Deluxe Music, en av Stockholms största musikaffärer när en av bröderna Brun kom in för att handla något. Det här var säkert när vi var runt 16-18 år, och The Mobile Homes var redan idoler för oss. Men det Anders minns av mötet i musikaffären är att han tyckte att bandmedlemmen var så gammal, ja rent av en gubbe! Jag räknar baklänges och inser att “gubben” i fråga måste ha varit runt 25 år gammal, och inser samtidigt att The Mobile Homes har hållit på med sin synthmusik i hela mitt medvetna liv.

Ja, samma dag som Depeche Mode släppte sitt senaste studioalbum, Sounds Of The Universe som jag är väldigt besviken på släppte svenska veteranerna The Mobile Homes sin nya skiva, Today Is Your Lucky Day, som sammanfaller med bandets 25-årsjubileum.

The Mobile Homes är ett av Sveriges minst kända “stora” band, mest på grund av att de ägnat nästan hela sin karriär åt att göra samma sak – riktigt bra synthpop som man måste vara lite insatt i för att gilla. Den senaste skivan är fruktansvärt imponerande, om inte annat än för att de låter som… sig själva, efter 25 år. De flesta band skulle ha upplösts, återförenats, bytt spår (TMH provade visserligen att göra en gitarrbaserad popskiva, men gav klokt nog snabbt upp det spåret) och gett upp vid det här laget, men syntharna från Sätra fortsätter oförtretet och gör det riktigt, riktigt bra.

Faktum är att jag tycker att den här skivan är så mycket bättre än Depeche Modes senaste skiva att Martin Gore och Dave Gahan borde sätta sig på ett plan till Sverige och genast böna och be om att få bli producerade av firma Erkendal, Brun och Liliefeldt, som tillsammans medSami Sirviö och Christian Falk gjort den ultimata synthplattan för år 2009.

Minimala skivbolaget Megahype var enda stället jag kunde få tag i skivan, som jag beställde över nätet och fick levererat i ett kuvert nån dag senare. ?r det något TMH skulle tjäna på att göra annorlunda är det kanske distributionen. På Pet Sounds i Stockholm (som åtminstone förr i världen var synthmeckat i stan) som väl får anses som en av de mest välsorterade skivhandlarna i landet visste man knappt att skivan fanns ute, och när man väl fått reda på att den fanns hade man ingen aning om hur man skulle kunna beställa den.

Nåväl, på This Is Your Lucky Day samsas rena bombastiska synthdängor som “I’m phoning a friend and he says that”, som med sin risiga engelska placerar The Mobile Homes precis där de hör hemma och det är som att de senaste femton åren aldrig passerat, med “I give you” som är en modernare, minimalistisk version av synthpop som låter riktigt, riktigt modern.

“All I need is everything” är den snyggaste låten på skivan. Välproducerat och vibrerande – flytande och bastant på samma gång låter det som att TMH har hittat ett sound som håller i 25 år till. Blandningen av feta analogsynthar och krispiga FM-ljud gör att det är renlärig synth, utan att det någonsin blir pastisch. En svår konst för de flesta i genren.

Kort sagt, det är hatten av för The Mobile Homes som visar att gammal ibland är äldst.

/M;

Depeche Mode – Sounds Of The Universe

Jag vore ju inte jag om jag inte postade en snabbrecension av den nya skivan som släpps denna vecka, men som för oss trogna premiumanvändare på Spotify redan funnits tillgänglig ett par dagar.

Tretton låtar gör en vansinnigt lång skiva som går i mycket långsammare tempo än föregående platta, Playing The Angel. Det är mer som skiljer denna skiva från föregångaren än tempo. Låtstrukturerna på SOTU är mycket mindre direkta, och soundet påminner mig väldigt mycket om Ultra, vilket inte är ett gott betyg. Nånting har helt klart hänt med bandets driv och geist som när PTA släpptes kändes som en nystart för kärnan i bandet, Gore-Gahan. Där PTA hade ett par riktiga kioskvältarhits som röjde väg i bästa Violator-stil är SOTU mycket stillsammare, närmast experimentell i struktur och ljudbild.

Förutom singeln Wrong har nya skivan endast ett par låtar som går i något som börjar likna danstempo. Desto fler (ryyys) ballader finns att återfinna, även om man här och där försökt dra upp tempot lite genom att använda oktavbas eller sequence-blipps. Efter ett par första genomlyssningar finns det ett par riktiga lågvattenmärken på Peace, som inte ens känns som en färdig låt eller produktion, samt Come Back, som är så lång och seg att jag lika gärna hade kunnat sätta på Sister Of Night (aj!).

Jag hoppas på att det här är ett album som ska växa efter fler lyssningar, men jag satt på tunnelbanan i morse och försökte komma ihåg en enda låt från skivan, förutom Wrong då, och kom inte ihåg en enda. Det är verkligen inte lovande, och jag gick till och med så långt att jag avbeställde deluxe-boxen av SOTU som jag förbeställde förra veckan. Jag kommer fortfarande att köpa skivan (om inte annat för att göra samlingen komplett) men det räcker nog med billighetsutgåvan, för detta blir ingen klassiker.

För att minnas storhetstider, lyssna gärna på min hastigt ihopplockade spellista på Spotify istället: Best of Depeche Mode.

/M;

XBMC och Apple TV är som gjorda för varandra

Jag har skaffat en Apple TV. Det är en produkt som i sitt originalutförande är nästan helt meningslös i Sverige eftersom de tjänster som Apple har till (hyra eller köpa film och teveserier) inte finns i vårt land utan bara i USA.

Men länge leve hackare, för till ATV finns något så märkligt som en nedladdningsbart hackarprogram som man lägger på en USB-sticka, stoppar in i sin ATV och bootar om, och plötsligt kan man installera XBMC eller Boxee på burken och då blir den genast mycket, mycket roligare och mer användbar.

Programmet heter ATV bootloader och är helt gratis att ladda ner och använda. Det är näst intill idiotsäkert och lätt att använda, och det tar bara fem minuter så har man XBMC installerat på en liten nästan ljudlös burk som blir en perfekt mediaextender förutsatt att man har all sin media utdelad på nätverket med t.ex. SMB, NFS eller uPnP.

Apple TV har inbyggt trådlöst nätverk (802.11n) och ethernet, så det är lätt att ansluta till hemmanätverket oavsett metod.

XBMC är, kort sagt, den bästa mediacentermjukvaran som finns tillgänglig, och den går att köra under Windows, Linux, OS X och nu även Apple TV.

Med XBMC följer en mängd intressanta funktioner som t.ex. möjligheten att ange en FTP-server som mediakälla. Plötsligt kan man bläddra på en FTP-server och titta på teve direkt strömmande, utan problem (förutsatt att det finns bandbredd nog förstås). Det finns även möjlighet att prenumerera på video-poddcaster, spela upp MP3 eller annan musik, se foton/bilder, etc, etc.

För oss blev detta en perfekt lösning för sovrummet. Förut har jag haft en lång videokabel genom hela lägenheten för att kunna titta på video från vår Mac Mini som står i vardagsrummet, men nu är det trådlös video som gäller. Smidigt!

/M;

Varför är jag obetald betatestare?

Jag har en ny teve från Samsung. Sedan den dag jag köpte den har den inte fungerat som den ska. Trots att den såldes i butik med en stor Com Hem-logotyp på sig för att den ska vara kompatibel med Com Hems digitaltevenät vill det sig inte.

Upprepade samtal till Samsungs support, e-post till samma support, arga trådar på diverse Internetforum och en hel del frustration senare kvarstår problemet, även om jag äntligen fått löfte om en supporttekniker som ska komma och testa teven hemma hos mig.

Jag har en Internetradio som kan lyssna på nätströmmar från hela världen. Sedan den dag jag köpte den har den inte fungerat som den ska. Här finns ingen direkt support att kontakta eftersom detta är något mer av en entusiastprodukt, men lik förbannat får jag sitta och rota i nätforum och leta tips för att få det att funka som det ska.

Jag anar en oroande trend. Konsumenter har blivit vana vid att agera obetalda betatestare åt företag. Det kanske började på datorsidan där det är vardag att program inte klarar av det de lovar när de släpps, utan man får vänta på “version 1.1” innan man kan börja lita på funktionaliteten.

Men när det gäller hårdvara har problemet spritt sig till den inbyggda mjukvara som sitter i alla moderna prylar, “firmware” som måste uppdateras titt som tätt är ett gissel, särskilt om uppdateringarna inte innehåller nya funktioner som är roliga och gratis, utan buggfixar som rättar till fel som aldrig skulle ha funnits med i produkten från början.

Hur vägrar man att vara betatestare åt företag? Och hur kan man vara säker på att en produkt man köper till fullpris i affären verkligen håller vad den lovar? Det bästa man kan göra för tillfället är att läsa på ordentligt på nätet innan man köper något. Gör mängder av Googlesökningar på produktens namn, tillverkarens namn och modellbeteckningar för att se om du hittar en eller flera forumtrådar om problem innan du handlar.

/M;