Debatten om IPRED snedvrids medvetet

TORBJ?RN FLYGT, författare,
?SA LARSSON, författare,
BJ?RN RANELID, författare,
DICK HARRISON, författare,
PETER ENGLUND, författare,
LENA KOPPEL, regissör,
COLIN NUTLEY, regissör,
KJELL ?KE ANDERSSON, regissör,
JOAKIM N?TTERQVIST, skådespelare,
STEFAN SAUK, skådespelare,
HANNES HOLM, regissör,
M?NS HERNGREN, regissör,
PETER DALLE, skådespelare,
MIKAEL PERSBRANDT, skådespelare,
RIKARD WOLFF, artist,
GEORG RIEDEL, musiker/kompositör,
MARTIN ROLINSKI, artist,
HENRIK RONGEDAL, artist/låtskrivare,
MAGNUS RONGEDAL, artist/låtskrivare,
FREDRIK THOMANDER, artist/låtskrivare/producent,
JAKOB SAMUELSSON, artist,
MATTI ALFONZETTI, artist/låtskrivare/producent,
JILL JOHNSON, artist/låtskrivare,
CLAES JANSON, exekutör och tolkare
MONICA BORRFORS, artist,
LASSE TENNANDER, musiker/kompositör/textförfattare,
EVA DAHLGREN, artist/låtskrivare,
PER GESSLE, artist/låtskrivare,
ULF DAGEBY, musiker/kompositör,
MARTIN EHRENCRONA, musiker/producent,
JACOB WID?N, artist/låtskrivare,
ERIC LANTZ, artist/låtskrivare,
OSCAR KEMPE, artist/låtskrivare,
MAGNUS SVENINGSSON, artist/låtskrivare,
JOEY TEMPEST, artist/låtskrivare,
LISA MISKOVSKY, artist/låtskrivare,
NIKLAS STR?MSTEDT, artist

Se där en lista nyttiga idioter som löper storbolagens ärenden i ett upprop på DN.se idag, vilket även Aftonbladet.se noterat.

Jag hyser den allra största respekt för de artister, musiker, regissörer, skådespelare och författare som skrivit under uppropet och som av allt att döma är mycket oroliga för sina framtida möjligheter att försörja sig på sitt skapande. ?ven om just namnen ovan knappast verkar tillhöra de som är fattigast i kultursverige.

Jag hyser respekt för er som skapande, kreativa medborgare. Men jag har ingen respekt för er som politiskt kunniga, eller tyckare. Ni har uppenbarligen inte orkat sätta er in tillräckligt mycket i frågan för att göra relevanta uttalanden. IPRED handlar inte om huruvida ni ska ha rätt att få betalt för ert arbete. Lagen handlar om huruvida vi ska tillåta att privata företag agerar polis i vårt land. Ska vi ge internationella koncerner med miljardvinster rätten att begära ut personuppgifter för att ge till domstol ifall de misstänker att ett brott begåtts?

Att IPRED-lagens motstånd får samma omfång som det mot FRA har främst att göra med att många människor inte är beredda att sälja ut det vi uppfattar som grundläggande rättigheter och skydd mot integritetsintrång ?? inte till staten, inte till mediebolagen.

Ni skriver att ni är oroade av att “den lilla, men högljudda piratgruppen […] ska kunna ta för sig obehindrat av det som vi och andra har skapat”. Sover ni? Har ni inte orkat lyssna på folket? Om ni verkligen tror att det är en liten grupp människor som ägnar sig åt att ladda ner era verk illegalt på nätet så är ni mer ute och cyklar än jag någonsin trodde.

Fildelning är en folkrörelse. Större än alla politiska partier, fackförbund, scoutrörelsen och alla idrottsförbund i Sverige tillsammans. Och den lär inte bli mindre, oavsett vilka rättsövergrepp som regering och riksdag är beredda att begå för att stoppa den.

Ni artister och kreatörer som är rädda för framtiden, ni är det med all rätt. Vi befinner oss i en brytningstid ?? ett paradigmskifte. Den affärsmodell som ni och era föregångare grundat sitt leverne på under de senaste 50 åren är död, eller åtminstone i dödsryckningar. Det kommer inte att gå att sälja plastbitar med media på så länge till. Vi vill inte ha er nuvarande produkt! Det betyder inte att vi inte är intresserade av det ni skapar ?? tvärtom! Aldrig har väl musikintresset eller filmintresset varit så levande bland unga människor som just idag, när all världens samlade produktion finns inom ett par knapptryckningars avstånd.

Ni vet inte hur ni ska tjäna pengar i framtiden. Det vet inte jag heller. Det är osäkert om det finns någon som vet det. Men ett par saker kan vi vara säkra på:

  • Ni har en tjänst (musik/film) som människor har ett stort sug efter och troligen är villiga att betala för eftersom efterfrågan är stor.
  • Den produkt (CD/DVD) ni säljer är död eller nästan död på marknaden, eftersom nedladdning är billigare och snabbare än det ni säljer.

Jag har en enkel teori om illegal nedladdning kontra de lagliga tjänster som finns idag. Den grundar sig på en klassisk triangel: Kvalitet, Pris och Tillgänglighet. Just nu slår de illegala alternativen de lagliga på alla tre punkterna:

  1. Det är ofta bättre kvalitet på det jag kan ladda ner från t.ex. Piratebay än det som säljs på legala nättjänster. Högre bitrate och DRM-fritt så jag kan använda filen i alla mina spelare.
  2. Det är billigare att ladda ner olagligt än lagligt. Oftast helt gratis. Den här punkten kan ni troligen aldrig slå.
  3. Det lättare att få tag i just den musik och film jag vill hos piraterna än det är hos mediabolagen. Det finns fler alternativa utgåvor, fler gamla skivor/filmer att hitta på de illegala tjänsterna än hos de som försöker sälja lagliga kopior.

För att en laglig tjänst ska kunna lyckas måste ni slå piratmarknaden på två av tre punkter. Priset är svårast. Gratis är svårt att gå under. Strunta i priset – sikta in er på de två andra punkterna! Erbjud bättre kvalitet och högre tillgänglighet än de illegala tjänsterna, så kan ni sen rikta in er på att hitta prytpunkten på den tredje punkten ?? priset ?? där det blir roligare och enklare att använda det lagliga alternativet, även om det kostar pengar.

Spotify är det bästa exemplet på det jag pratar om. Jag är premiummedlem och betalar glatt 99 kronor i månaden eftersom tjänsten slår piratalternativet så hårt på tillgänglighetspunkten.

Jag är inte ekonom eller samhällsvetare, men jag ser en framtid för kultur och kulturarbetare. Ni måste vara mer kreativa än någonsin förut. Visa att er kreativitet inte är begränsad till att skriva musik eller text – visa att ni också kan komma på nya, smarta, underbara sätt att tjäna pengar på. Gör er produkt så oumbärlig att folk vill betala för den.

Det här är jobbigt för er ?? jag förstår det. Det är aldrig kul att bli av med sitt levebröd, oavsett om man förlorar jobbet på Volvo för att det är billigare att tillverka bilar i ett annat land, eller om man inte kan leva på sitt skapande för att ingen vill köpa det man säljer. Men utvecklingen är oundviklig. Det spelar ingen roll hur många upprop ni publicerar eller hur många lagar som stiftas. Ni måste jobba vidare. Hårdare än någonsin. Bli smartare affärsmän och kvinnor. Komma närmare er publik.

/M;

DN.se:s iPhone-version bra, men inte perfekt

DN berättar stolt om sin nya iPhone-anpassade version av mobilsajten på mobil.dn.se idag. Själv upptäckte jag den för nån dag sen, när jag som vanligt surfade in på mobil.dn.se från min iPhone – den befintliga versionen av iPhone, som inte har 3G-hastigheter.

Den nya iPhone-versionen är snygg, mycket snygg. Den använder sig av standardiserade ikoner, knappar och annat som gör att det verkligen känns som en fullfjädrad iPhone-webbapp. Men tyvärr är den så seg, så seg att den i princip är oanvändbar på min iPhone när jag inte har tillgång till wifi.

Jag förstår att DN anpassat sin iPhone-sajt till iPhone 3G som är den första versionen av telefonen som släpps officiellt i Sverige om några dagar, men med tanke på hur många det är som “grå-importerat” en iPhone från USA och använder dem här i Sverige tycker jag att DN borde ha haft detta i åtanke innan de bestämde sig för att skicka vidare alla iPhone-browsers helt osorterat när man surfar in på mobil.dn.se.

DN:s mobilsajt brukade vara den allra bästa för mig, men nu är den oanvändbar. DN borde låta mig som iPhoneanvändare välja om jag vill fortsätta använda den nya, iPhone-anpassade versionen eller om jag vill komma till “vanliga” mobilsajten när jag surfar in.

Snälla DN, gör så jag kan komma tillbaka till den gamla mobilsajten!

/M;

Efficient dual caching of dynamic web content

Last Tuesday, I held a short presentation at the very first “Web Monday” held in Stockholm (don’t ask why it was on a Tuesday) about a technique I used at the site I run, arkadtorget.se. The cache method I implemented there was the result of a series of discussions I had with my very good friend Peter Svensson, who is the smartest scatterbrain in the county, if not the country, or the world.

Peter, who has recently become a Javascript wizard and evangelist, suggested that I solve a problem I had with heavy load on the MySQL server at Arkadtorget by implementing a client-side cache. Storing content in local Javascript variables in the web browser. I had already determined that I needed to build and implement a server-side cache using PHP to write the results of MySQL queries into text files that I could later read from instead of bugging MySQL about the data again just because another user wants to read the same forum thread that another one just did.

There are plenty of PHP caching solutions out there, most of them using a similar method of writing database results into text files. To use server-side caching is a very wise and good idea in general, for almost any web site with common database access. Usually, the method is used to cache complete web pages after they have been rendered by a CMS or other web system. The complete resulting HTML from a complex series of PHP-parsing and database queries is stored in a text file on the server before being sent to the web browser. The next time a client requests the very same page (usually determined by the URL/query string used to access the content) the server can return the contents of the text file instead of again parsing PHP and making several database queries.

I use my cache methods mostly to cache parts of pages that I know are difficult for PHP/MySQL to render. This is often lists, tables of different kinds and simple counters or searches that are repeated a lot, but where the data does not neccessarily need to be 100% fresh. (What if it does need to be 100% pristine, fresh and healthy-smelling? More about that later.) In fact, sometimes I use server-side cache to store many parts of a page, separately and modularized, so that the same module (say, a sidebar navigation or statistics used in many different places on a site) can be called upon an unlimited amount of times without asking the database to check its rows more than once ?? i.e. the first time the content is rendered, and subsequently cached.

Now, since we are talking about tables and lists, I have made an observation regarding user behaviour and pagination. After logging every click a user makes on a paginated list of results, I noticed that the very pagination itself seems to encourage “flipping” back and forth between pages of results. I even started noticing myself doing it. I’d make a web search on Google, scan page one of results, click to page two, maybe to page three and then think “what was that third link on page one?” and flipping back to page one, checking it before flipping back to page three again and then on to four, and so on.

What’s going on here? In my logs, I could see that as many as 33% of the requested pages were pages I had already sent to the browser, during the same session! (Note, this is at a local, Swedish-language forum full of tech/arcade nerds – YMMV) Even if I have used on of the common cache methods in PHP to store the forum pages in a text file on the server, the client will ask the server for updates on every page, and with even low latency and a properly working cache, there will be plenty of requests sent from the client to the web server for changed graphics, included files, etc. (Most of which are preventable if you have set your expires headers correctly! More on this in another post.)

Now, I was already planning to migrate the forum to an AJAX-powered fetching method, but even using AJAX to get the contents of the forum, I would have to ask the backend for the same code, over and over in up to 33% of the time! This is where my friend Peter had the idea to circumvent the extra round trips to the web server by storing the HTML needed to print the pages in a local JS variable.

Simple, elegant, yet powerful. Every time a user requests a page he has not previously viewed I ask the AJAX backend (built with PHP) for the HTML-code needed to print the page. The PHP code will use the server-side cache method to make sure that the database will not have to bother with presenting content for the page, if it has been loaded before, and send the HTML-code ?? from text file cache or not ?? to the client. The browser, upon receiving this content for the first time, displays it for the user to read, but also quietly stores the entire page of data in a Javascript variable. If the user ends up going to page two and then wants page one again (“flipping” as it were) we can check to see if page one is already present in the local cache, and serve up the content of the Javascript variable straight, on the rocks, without even checking with the server to see what time of day it is! It’s a beautful solution, especially since the users who are doing the “flipping” notice nothing, except that a page they already visited before is loading instantly, without any noticable delay.
In fact, why stop there? I made some changes to make sure that the user experience is even more smooth by telling my AJAX backend to let the browser know whether the next page in the result set is available as server-cached content (I don’t want to bother the database if I don’t have to ?? I don’t know that the user is actually going to ask for the next page) and if it is, the browser will then proceed to load the next page of results straight into the local Javascript variable. The user sees and notices nothing of this, except if he clicks the next page, in which case I can now present that content instantaneously, without asking the server “hey, hand me page two ?? stat!”.

OK, so what was actually gained here? First of all, the user experience is greatly improved. The dual caching method makes this forum seem fast as lightning, most of the time. Secondly, the database can take a deep breath of relief, since I never have to ask it for content it’s already served up once.

Which brings us to the server-side cache, and its expiration methods. A common practice is to define a timeout, an interval of time during which the content will be considered fresh. When the predefined time is out, the content will be generated by asking the database the very next time it is requested by the user. This works great for content that doesn’t need to be 100% fresh, all the time. With a relatively conservative timeout, say 15 minutes, any content on the site is never more than 15 minutes old, even if it’s being read from the server cached text files. But what if 15 minutes is too long? In my case, I have a fairly active forum that needs caching, and 15 minutes is a very long time to wait between posting a message and actually showing it on the site.

We could, of course, delete the entire stock of stored text files containing the cached data every time a user posts in the forum. This would make sure that no cached content will be presented in case there is new data in the database. However, I don’t think that this is a very good idea in my case, because I have literally thousands of cached snippets (think hundreds of forum threads times tens and sometimes hundreds of pages) and deleting all of them would actually take some time for the server. Also, I am throwing the baby out with the bath water by deleting a lot of data that is not expired by a user posting in that very forum thread.

The answer is again, simple. Always make sure that you can back-reference a cache file with its content! A very common method for storing cache files on the server is using a hash (usually md5()) to make a unique filename for the content being cached. However, the drawback is that once you’ve md5()-ed, you can’t go back, since you can’t make potatoes out of fries or a cow from a hamburger. In my case, I decided on making up the file names of the cache files based on the content being cached. If I am caching forum 34, thread 34124 and page 2, the cache file is called “34-34124-2.cache”. Simple, no?

“But”, you say. “Having thousands of small text files on the server will make the request slow anyway, since the time the server needs to look up a file grows with the number of files in the same folder!”

Yes, it does. Have you ever made the mistake of not deleting session files in Apache after the session is expired? After a while, the web site will be extremely slow when Apache tries to locate your session file in a folder with a million files. My solution was to make a folder structured based on the md5() of the cache name, but using only the first two characters from the md5(). So, I currently have 235 folders storing the cache data, but I retained back-referencing!

This solution is so simple it could be used anywhere paged results are used. It costs next to nothing to implement (a little memory usage on the client, but unless you have pages of HTML using hundreds of kilobytes, this is of no concern) and there is no drawback to the method. Faster browsing, less traffic and load on the server is your reward.

Here is a tiny bit of example Javascript just to show what I am talking about:

[quickcode:noclick]function printThread(forumid, threadid, page) {
// Check for local cache first – pagesCached is an array of booleans,
// pageCache is an array of strings containing local cached content.
if (pagesCached[page] && pageCache[page].length > 10) {
alert(“From JS cache”); // We have a local cache!
// First, choose what div to write to
div = document.getElementById(“forumthread”);
// Next, set the innerHTML of that div to the content of local cache
div.innerHTML = pageCache[page];
// Now, if the next page in the result set is not
// already present in the local cache – go get it!
if (!pagesCached[(page+1)]) {
// Insert your own loading/caching code here
}
}
else {
alert(“From AJAX”);
// Go get the page from the server,
// but don’t forget to cache it locally afterwards!
}
}
[/quickcode]

/M;

Varför tar inte televisionen nästa steg?

Jag kan bli både förvånad och förargad över att tevemediet ?? denna älskade, fantastiska kanal rakt in i alla svenska hem ?? utvecklas så långsamt. Redan när jag började upptäcka Internet på 90-talet pratades det vitt och brett om att tevemediet stod inför en fantastisk förändring. Inom kort skulle äkta “on-demand” finnas tillgängligt, antingen via kabelnät eller direkt över Internet. Med on-demand skulle vi kunna beställa filmer, sportevenemang och annat direkt från våra tevesoffor.

15 år senare finns visserligen möjligheten att beställa film och sportevenemang i min digitala kabelbox från Com Hem, men det handlar inte om nåt on-demand. Jag kan inte se vilken film jag vill, och framförallt inte när jag vill. Jag kan välja bland 15-20 filmer och bara se dem på de tider Com Hem behagar sända dem på. Det är lika dyrt eller dyrare än att hyra film i videobutiken och utbudet är så skralt att det är skrattretande.

När YouTube slog igenom var det egentligen den första riktiga on-demandkanalen för rörliga media. Synd bara att innehållet även där är så dåligt (om än ej skralt i omfång) att det finns väldigt lite som är värt att titta på. Och ännu mera synd är det att de tjänster för on-demand som tagits fram av våra svenska innehållsleverantörer, t.ex. SVT är så märkligt utformade och bygger helt på att man ska titta via sin webbläsare.

Jag önskar mig en slags utbyggd text-tv-funktionalitet, där man direkt via fjärrkontrollen kan kalla fram webbsidor med innehåll ?? rörligt eller inte ?? och dessutom göra smarta sökningar bland nyckelordsklassat innehåll. Det slog mig när jag morgonen efter att ha varit på Söderstadion och sett matchen mellan Bajen och Malmö att det var väldigt svårt att hitta reportage från gårdagens nyhetssändningar om just den matchen. Varför kan jag inte bara göra en sökning på “Hammarby” och få fram de 20 senaste klippen från teve som handlar om Hammarby? Och när jag fått fram den skulle jag kunna få se relaterade nyckelord så jag vidare kan filtrera sökresultatet, t.ex. “Malmö”, “Söderstadion” och “?l”.

Det här skulle vara så användbart oavsett vad jag letar efter. Det är på detta sätt vi hanterar våra länkar på del.icio.us och det funkar så bra och intuitivt att det är både märkligt och skandalöst att inte all arkivering/sökning funkar på samma sätt!

Nu när Flash video håller på att bli en slags nätstandard för rörliga bilder över webben är det dags att skriva metaprotokoll och applikationer som kan samla ihop, klassificera och kategorisera videoklipp, oavsett var de hostas. Då skulle jag kunna sitta vid min teve och via mitt mediacenter plocka fram just de klipp jag är intresserad av.

Om de kommersiella producenterna skulle få ärslet ur och börja lägga ut sitt innehåll på nätet skulle de dessutom kunna ta betalt för det – antingen via abonnemang eller via mikrobetalningar/e-walletlösningar. Men som vanligt måste vi vänta på att en norsk tonåring eller en amerikansk collegestudent gör det som mediebolagen inte vågar ?? ta fram lösningar som funkar, är enkla och fria, oavsett legaliteten.

/M;

Att kunna välja sina grannar är redan en verklighet

SvD med flera publicerar idag den föga chockerande nyheten att man som bostadsspekulant kan ta reda på information om det område man eventuellt tänker sig flytta till. För 100 kronor kan man på Hemnet få en slags minirapport som berättar om det aktuella har fler eller färre arbetslösa än kommunens genomsnitt, hur många åldringar respektive barn och ungdomar som bor i området, samt lite annat.

Det blir naturligtvis upprörande för många, för det ökar segregationen, eller är det minskar integrationen vi ska säga?

Men vem är det som inte redan idag tar sig en funderare på om det område de ska flytta till är något man kommer att trivas i? Förutom den som absolut inte har en chans att välja sitt boende är det väl ingen som köper en bostad på måfå? Statistiken man upprör sig över är dessutom, som vanligt i Sverige, helt vanliga offentliga siffror från SCB.

Det här är för mig bara en förlängning på raseriet mot Ratsit. Folk blir tydligen väldigt upprörda när de lite för enkelt kan ta reda på saker som visserligen är offentliga uppgifter och därmed alltid varit tillgängliga för allmänheten, men som av olika företag görs lättare att få presenterat, och på ett enklare sätt.

Det är väl inget som helst konstigt med att en mäklare publicerar data om områden man vill sälja bostäder i? Om det är omoraliskt att berätta hur många arbetslösa det finns i området, är det då inte heller OK att berätta hur hög befolkningskoncentrationen är? Hur många skolor som finns? (om det är många måste det ju finnas massor av osnutna småglin i området – usch!) Hur många barer eller restauranger som finns? (mängder av fyllon – usch!) Hur många kyrkor som finns? (säkert såna där som ringer i klockorna på morgonen – usch)

Den mer eller mindre obehagliga sanningen är väl att folk gärna vill bo i områden där de känner sig bekväma. Att försöka “lura” in välbärgade människort i lågstatusområden kommer liksom aldrig att funka. Jag behöver inte läsa nån statistik för att veta att ?ppelviken har högre status än Hässelby här i Stockholm.

/M;

För ett snabbare Internet – komprimera dina webbsidor

Till webbservern Apache finns en modul som heter mod_gzip och som är väldigt fantastisk på alla sätt och vis. Med ett par rader i .htaccess kan man slå på dynamisk gz-komprimering av alla filer som servern skickar till webbläsaren, vilket gör att det går mycket snabbare att ladda ner sidorna, för att inte tala om vinsten i minskat utnyttjande av bandbredd.

Om du använder PHP för att skapa dina webbsidor kan du lägga följande rader i filen .htaccess i din rotkatalog för webbsidorna för att slå på gz-komprimering av allt innehåll som genereras via PHP och skickas till klienterna:

php_flag zlib.output_compression On
php_value zlib.output_compression_level 5

Många använder inte Apache, utan Microsoft IIS. Till denna webbserver finns inte mod_gzip, men dessbättre har Microsoft byggt in en egen variant som de kallar HTTP Compression.

Här är Microsofts sida om hur man slår på HTTP Compression i IIS.

Via den fina testsidan som finns här kan man testa IIS-servrar för att se om de använder IIS Compression eller inte.

Alla sidor som laddas, inklusive javascript, CSS och annat gott, skulle kunna bli 70-80% mindre, vilket skulle göra att en sajt kändes mycket snabbare och att bandbreddsupptaget skulle minska drastiskt.

Den enda nackdelen skulle kunna vara att denna funktion äter CPU på webbservern. Hur mycket vet jag inte när det gäller IIS, men med Apache är det helt försumbart.

/M;

Att stämma Google leder ingenstans

Jag ser på Slashdot att ett företag bestämt sig för att stämma Google eftersom deras Pagerank plötsligt fallit. Pagerank är Googles metod för att avgöra hur “viktig” en webbsida är. Ju högre Pagerank, desto bättre placering i Googles index när någon söker på relevanta termer.

?ven om företaget i fråga naturligtvis är helt fel ute när de försöker stämma Google är detta en intressant fråga som relaterar till min tidigare post i ämnet. Jag tycker också att det är irriterande att Google höjer och sänker Pagerank för olika sidor, utan att alls berätta varför. I det här specifika fallet verkar företagets sida vara en simpel länkfarm och det är antagligen så enkelt att någon på Google upptäckt detta och därför sänkt deras Pagerank. Och även om jag förstår att Google gör så, och varför de inte kan berätta exakt hur de går tillväga, tycker jag ändå att man som webbmaster ska kunna få reda på när detta händer, och någon slags anledning.

Google är visserligen bara ett företag bland andra, och en sökmotor bland andra, men dess position är så stark att vi kan börja prata om monopol på marknaden. Google har allt att tjäna på att öppna upp sig lite, och bli lite mer lättillgängligt för oss som är beroende av dess index.

/M;

Vad hände med utvecklingen av formulärfälten?

Jag minns min första webbläsare på min första internetanslutna PC. Det var Mosaic och Trumpet Winsock som gällde, men relativt snart kom ju Netscape och leverade en bättre webbläsare. På den tiden var det självklart att uppgradera sin läsare så fort det kom en ny version, eftersom varje ny version hade massor av roliga nyheter som gjorde webben roligare eller mer användbar.

En ny version av Netscape hade t.ex. plötsligt stöd för bakgrundsfärger och bilder på webbsidorna, och plötsligt exploderade webben i färg. Jag föreställer mig att det var lika spännande när färg-teven kom.

Jag vill också minnas att formulären i webbläsarna har sett likadana ut sen den första versionen kom. Jag kan t.ex. inte dra mig till minnes att en ny version av Netscape plötsligt hade stöd för radioknappar. De har alltid funnits där.

Men varför är det så egentligen? Jag har alltid saknat flera olika typer av formulärfält och funktioner, och när innovationerna i webbläsarna upphörde nån gång i slutet av 90-talet var det som att alla fick komma överens om att det räckte med de kontroller vi hade, och om vi vill ha bättre formulärfunktioner får vi använda Java eller Flash istället.

Jag tycker att det är synd, och skulle gärna se följande inbyggt i moderna webbläsare:

– Varför kan inte ett klick på en redan vald radioknapp “ploppa upp” knappen igen, så att man kan ångra val?

– Jag vill ha skjutreglage, så att man enkelt kan välja ett värde mellan t.ex. 0 och 100 procent. De här finns ju i alla operativsystem och är väldigt använtbara för inmatning av data. Idag har vi drop- downmenyer, men de är ju sabla opraktiska till långa datalistor. Dessa reglage skulle kunna vara både vertikala och horisontella, och dessutom kunna vara låsta till fasta värden, tex. “Bra, dåligt, uselt”.

– Stöd för flikar i formulärens fieldset. Idag måste man koda dessa manuellt med t.ex. javascript om man vill skapa komplexa inmatningsmöjligheter.

– Små “pil upp”, “pil ner”-knappar bredvid fält där man kan mata in en siffra, som vid klick på pilarna ökar eller minskar värdet med förinställt intervall.

Antagligen får vi aldrig se dessa funktioner i en webbläsare, eftersom ingen längre vågar rucka på formulärstandarden av rädsla för att bryta standarden, men visst är det synd?

/M;

Nu får det vara slut med www-tramset!

Jag kan inte för mitt liv begripa hur man år 2006 kan ha en stor webbplats med en server konfigurerad att inte svara korrekt på anrop till domänadressen utan “www” före. Hur många besökare tappar man inte på det, när de tror att sajten är nere?

Två stora sajter jag kommer på, på rak arm, där jag stört mig på detta:

onoff.se
bostad.stockholm.se

Det finns fler. Kan nån ringa ansvarig tekniker för dessa och med syrlig röst säga “Hej, 90-talet ringde och ville ha sin serverkonfiguration tillbaka”?

/M;

Googles makt är för stor!

Något jag har funderat på mycket på sistone är varför vi tillåter Google* att utöva så stor makt över vårt eget innehåll. Vi producerar webbsidor och sajter, men kan inte direkt påverka när eller hur Google indexerar oss. Ofta gör Google förändringar i sin databas och sitt index och plötsligt försvinner mängder av indexerade sidor och gör våra sajter mindre synliga på den största sökmotorn på webben.

Andra gånger gör man en helt ny sajt åt ett företag och det tar sex månader innan Google behagar indexera sajten, trots att man försöker lägga till den manuellt samma dag som den släpps. Jag inser att Google har enorma datamängder att jobba med, men vilket ansvar har världens största sökmotor när den nästan har monopol på webbsökningar?

Google gör många bra saker. Jag älskar GMail, Google Groups och de flesta tjänster de plockar fram ur sina gömmor, men varför måste de vara så hemlighetsfulla kring sitt index? Varför har de inte ordentlig dokumentation kring förändringar och indexeringar? Varför är deras hjälptexter så vänliga men så innehållsfattiga?

Google-indexering är big business. De senaste åren har “sökmotoroptimering” blivit värt miljoner om inte miljarder på den
svenska marknaden och många företag har ploppat upp som säljer bättre Google-ranking. I de allra flesta fall har det visat sig vara humbug. Företagen “fuskar” och använder tvivelaktiga metoder för att förbättra sina kunders status. Dessa kunder betalar stora pengar för att hamna högre upp på söksidorna med sina befintliga sajter, när de borde satsa sina pengar på att bygga om sina sajter från grunden med sökmotoroptimerad XHTML/CSS och webbstandarder.

På jobbet hade vi länge problem med att de sidor vårt eget publiceringssystem producerade blev felindexerade. Det tog oss flera veckor att leta rätt på dokumentation, gissa hur vi borde ändra vår kod och vänta på omindexeringar från Google innan vi kunde få rätsida på problemen. Med en ordentlig dokumentation och kanske ordentliga FAQ-sidor eller varför inte forum på Google.com skulle vi kanske ha kunnat hitta rätt snabbare.

Jag har försökt skriva ner ett par punkter som jag gärna skulle se förändringar på. Vad tycker du – är jag helt fel ute?

Kära Google:

Varför kan vi inte få veta när er indexeringsspindel tänker besöka oss nästa gång?
Det skulle vara väldigt praktiskt att kunna se på sin Google Analytics- eller Google Sitemap-sida hur indexeringen sker. När sker
nästa crawl? Vad skedde exakt vid senaste crawl? Ni är på god väg eftersom ni börjat visa vilka fel spindeln stötte på, men vi behöver mer data!

Varför kan ni inte ha egna diskussionsforum där era tekniker svarar på väl valda frågor?
Okej, ni har mycket att göra. Ni är upptagna och ni har en lång lista på funktioner som ska in i tjänsten snart. Jag vet hur det är, men tänk så mycket huvudvärk ni skulle kunna bespara era viktigaste kunder om ni hade en ordentlig FAQ-avdelning angående indexeringen. Ett modererat diskussionsforum skulle vara ett bra sätt att få in frågor att besvara.

Varför raderar ni sidor ur ert index utan att berätta varför?
Om ni väljer att ta bort sidor ur ert index vid en uppdatering, kan vi inte få veta varför? Om sajten har ett Google-konto kunde ni väl skicka ett mail dit och berätta hur beslutet togs och vad man kan göra för att förbättra sin ranking igen?


Jag förväntar mig nog inget svar från Google själva, men kanske har nån annan lösningarna på mina problem?/M;* Jo, jag vet att det finns många andra sökmotorer än Google, och att samma principer i de flesta fall gäller även för dessa. I mina ögon är Google störst, därför diskuterar jag främst dem i denna text.