Back to Main Page This information is provided by Johnson Consulting

Att bli synlig på Internet

To AltaVista Search Engine
Att bygga nätverk

Ye olde communication philosopher

Synligheten på Internet liknar mycket synligheten i verkliga livet. Om man lever ett isolerat liv, utan större umgänge eller socialt engagemang, och håller en låg profil på arbetsplatsen, så är det inte så många som vet om att man finns. Eller tar notis om ens existens. Internet fungerar på samma sätt. På "webben" finns hela urvalet, från websiter som får flera tusen besök per dag, till websiter som nästan ingen vet om.

Om det är så att man vill vara mer synlig i vardagslivet, kanske för att man har startat en liten firma och vill ha kunder, så får man jobba på det. Det finns då det "traditionella" sättet med reklamkampanjer, som kostar pengar. Och det finns det mer "informella" sättet; att helt enkelt höja sin profil i alla möjliga sammanhang.

Man kan alltså göra mer väsen av sig på jobbet (men inte så att man får sparken!), utvidga sitt umgänge, engagera sig i politik och i ideell verksamhet, med syftet att träffa folk och knyta nyttiga kontakter. I ekonomier som fungerar dåligt (som t.ex. de hädangångna kommunistregimerna i östra Europa) så utvecklar folk spontant denna förmåga att bygga nätverk. När varu- och tjänste-utbud fungerar dåligt är det nödvändigt för ens överlevnad under någorlunda drägliga former att själv hitta dessa varor och tjänster.

Motsvarande kontaktknytande på Internet tar sig uttryck i form av länkar. Du länkar till andra, och de länkar till dig.


Att höja sin visibilitet

"Visibilitet" är nyckelordet (från engelskans "visibility"). Jag känner en egenföretagare som haft sin website uppe i c:a 2 år. Men söker man på hans företagsnamn med t.ex. "Google" så får man bara en (EN!) träff! Och den länken går till en annan website, som nämner det aktuella företaget, men utan att länka till det. Så; den aktuella websiten lever sitt isolerade liv, som Robinson Crusoe på sin ö. Med tanke på att webhotell och egen Internet-domän kostar pengar, så är detta förhållande inte särskilt lyckat. Man kan fråga sig vad en sådan website gör för nytta.

It is wise to know what you are looking for, before you start looking. (Winnie the Pooh)

Man frågar sig då förstås; varför hittar inte sökrobotarna på Internet ("Google", "Yahoo", "AltaVista", etc.) denna website? Hur söker de egentligen? Ja, man hittar sällan det man letar efter, om man inte vet vad man letar efter. Mig veterligt så finns det ingen sökrobot som regelbundet kollar i registren hos de myndigheter som registrerar nya domäner, för att se om där finns några nykomlingar. Utan man får helt enkelt, som ny domän-ägare och website-ägare, slå på trumman för sig själv i början. Det är som att vara kille och gå på dans. Om man inte tar initiativet och bjuder upp, så får man stå och bara titta på hela kvällen.


Att vara metodisk

Man får helt enkelt göra klart för sig vad man vill ha ut av sin website-satsning. En viss visibilitet torde vara ett självklart mål. Men om man agiterar för en viss åsikt, driver en förening av något slag eller har ett företag, så vill man folk med sin website. Vad som är viktigt är då:

  • Att få tag på rätt målgrupp.

  • Att ha en "bra" website, som besökaren har behållning av att läsa.

  • Att hålla websiten uppdaterad, så att uppgifterna där är aktuella.

  • Att verkligen puffa för de varor/tjänster/budskap man vill ha ut så att folk förstår.


Ju fler vi är tillsammans...

Nej, jag tänker inte på hur det är att åka med bussarna i kollektivtrafiken, utan på detta med nätverk, som ju är huvudrubriken för denna spalt.

Om man har gott om tid och är utåtriktad så finns det utmärkta komplement till "visibility". Man tar helt enkelt kontakt med andra website-ägare, inte som kund utan på ett mer personligt plan. Man knyter kontakter, och odlar bekantskaper. Det ska då sägas med en gång att detta funkar i allmänhet bara för ensam-företagare, inte när personen i andra änden är en anställd.

Vad går det ut på? Ja, det är samma grej som när du går med i din lokala företagarförening. Bara medlemsskapet ger inte mycket utdelning, du bör också gå på deras sammankomster, spela golf o.dyl. så att du träffar de andra medlemmarna. På webben kan du på liknande sätt ställa frågor om web-upplägg, priser, varför det finns vissa produkter men inte andra, eller associera till något som du förmodar att motparten är intresserad av. I förlängningen väcker detta kanske ett ömsesidigt intresse för varandras produkter eller tjänster, som sedan poppar upp i backhuvudet när motparten eller dennes bekanta kanske behöver en produkt eller tjänst som du erbjuder.

En variant på detta är webforum där medlemmarna "reviewar" varandras websiter och talar om vad som skulle kunna göras bättre. Det finns flera sådana "fora". En amerikansk sådan hittar du t.ex. på the Webproworld Community.


Cloaking och User Agents

Rubriken låter som en spionroman, eller hur? Men det handlar i själva verket om hur man kan optimera sin websida så att den får bra träff-placering vid sökning på vissa nyckelord. Detta görs genom att lägga upp versioner av den aktuella websidan, där varje kopia av websidan är anpassad för en viss sökrobot, som t.ex. AltaVista. Dessa sidor är inte så roliga att titta på för en människa, så den ursprungliga "ögonvänliga" websidan måste också finnas kvar.

Om du använder detta så finns dessa webside-varianter i din katalog på webservern, men bara den "ögonvänliga" sidan är åtkomlig via länkar. De andra sidorna är dolda, "cloaked", och detta görs så att dina konkurrenter inte ska kunna komma åt dem, och se hur scripten är upplagda, vilka keywords som användes, osv.

När så en sökrobot hälsar på, så kollas dess "User Agent Identity" av ett script på webservern, som sedan ser till besökaren blir länkad till "rätt" version av websidan. Om denna "User Agent Identity" inte går att fastställa, så antar scriptet att det är en mänsklig besökare, och den ordinarie sidan visas.

Nu är detta med "User Agent Identity" ingen säker metod; "User Agent" kan ganska lätt förfalskas. Vanligare är därför att "the cloaking script" kollar IP-adressen hos besökaren. För detta ändamål har scriptet tillgång till en databas, där alla relevanta IP-adresser som används av sökrobotar finns listade. Detta är en betydligt säkrare kontrollmetod.

Ska man använda sig av cloaking? Det får var och en avgöra själv. Men sökrobotarna motarbetar detta förfarande, därför att de kan förlora kunder (och i förlängningen annonsintäkter) om surfare märker att träff-sidorna dåligt motsvarar deras sökord. Blir man avslöjad av en sökrobot så kan ens websida (eller hela websiten) bli borttagen från indexeringen.

Tja, är det risk att man blir avlöjad, då? Jodå, robotarna har rutiner för detta.

  • User agent cloaking avslöjas genom att man jämför en websida som nås via olika länkar på olika siter. Om websiterna A och B, bägge länkar till dig, så vill det till att resultatet från bägge länkarna stämmer inbördes.

  • IP-baserad cloaking kan kringgås genom att roboten skickar sin "spindel" från en IP-adress som inte finns i IP-adress-databasen jag nämnde ovan.

  • Sedan förekommer det faktiskt att anställda på t.ex. Google kollar vissa websiter manuellt, och jämför resultatet med det resultat sökroboten har rapporterat.
Viktiga komponenter på websidan

A webcamera

Det är förstås så att när en sökrobot äntligen(!?) hälsar på hos din website, så söker den efter vissa saker, nämligen:

  1. Metataggar: Dessa finns i websidans "HEAD"-avdelning, och de tre viktigaste är:

    - "Keywords", dvs. sökord. De ska självklart vara på samma språk som websidan i övrigt, och de ska vara "relevanta", dvs. det som websidan faktiskt handlar om. Tyvärr har folk "misskött" dessa taggar såpass att de vanligaste sökrobotarna (t.ex. Google) inte bryr sig så mycket om dessa längre.

    - "Content": Kort förklaring av websidans innehåll (igen, förstås, på relevant språk). Denna förklaring presenteras tillsammans med länken i listningen över surfarens träffar. Om du utnyttjar denna meta-tagg så har du alltså möjlighet att själv skriva denna presentation. Om den saknas så sätter sökroboten ihop en egen presentation, baserad antingen på början av texten, eller på de textavsnitt som innehåller de sökord som surfaren har angett.

    - "Title": Denna bör helst vara identisk med websidans titel, och om websiten omfattar många sidor så bör "Title" vara med på samtliga. Den viktigaste anledningen till att "Title" bör spec:as är att om besökare som använder Microsofts Internet Explorer vill spara länken till din website, så anges denna Titel i listan. Om du inte har angett denna Meta-tagg så kommer listan bara att innehålla en intetsägande webadress, som inte ger någon ledtråd för besökaren när han/hon vill hälsa på hos din website nästa gång. Länken blir då bara "skräp", som besökaren ofta rensar bort från listan så småningom.

  2. Inledande text bör förstås vara relevant i websidans sammanhang, men den väger också tungt vid sökrobotarnas indexering. Det är i allmänhet inte allt på en websida som blir indexerat, utan kanske bara de 150-200 första orden. Och eftersom meta-taggarna inte åsättes så stor betydelse längre, så väger detta textavsnitt i början på varje websida tungt vid indexeringen.

  3. Frames bör man undvika, eftersom sidan med den relevanta texten då kommer ett steg längre ner i hierarkin. Experiment visar att en sådan sida får sämre exponering, dvs. den hamnar långt ner på listningen över träffar på ett visst sökord.

  4. Script-genererade websidor är inte heller bra ur sök-synpunkt.
    Exempel på websida som delvis består av script-genererad text, som alltså inte blir indexerad av sökrobotarna.

    Dessa websidor "finns" egentligen inte, utan textmassa och bilder finns lagrade i databaser. När en surfare begär en websida så fångas vissa sökbegrepp upp, och med dessa sökbegrepp aktiveras en scriptfil, som hämtar den text som är relevant för sökbegreppet, och sedan genererar en websida. Man känner igen den på att den inte heter "HTM" eller "HTML" på slutet utan har någon annan ändelse. Den vanligaste är "ASP" som står för "Active Server Page".

    Sökrobotarna går inte in i databaser och indexerar, eftersom en databas är såpass annorlunda till sin struktur än en text. Så denna typ av websidor blir bara delvis indexerade, dvs. den del av sidan (om det finns någon sådan del) som inte genereras av ett script utan ligger färdig, för att sedan, vid varje söktillfälle, kompletteras med script-genererad text från databasen. Text i ASCII-format och PDF-format indexeras dock.

  5. Upprepning av sökord i texten var tidigare ett populärt sätt att komma högt i listningen över träffar. Detta har dock programmerarna bakom sökrobotarna genomskådat, så nu kan det istället bli tvärtom; upprepning av ett eller flera ord som man vill bli indexerad på som sökord kan istället leda till låg rankning.

  6. Uppdatering av en sida sedan sökroboten sist hälsade på leder i regel till att man blir "upprankad"; dvs. får en högre placering i listningen över träffar. Regelbundna uppdateringar är således en bra metod.

  7. Mycket information på websiten är bra, det lockar besökare. Och dessa kommer tack vare att fler sökord leder till din website. Om du t.ex. säljer stjärnkikare, lägg då gärna upp en websida med litet information om Astronomi. Och om du då skriver om "Magellanska molnen", så får du besökare som vill veta mer om just detta. De hade kanske inte tänkt köpa stjärnkikare, men tack vare detta så har de nu upptäckt din website!

    Undrar du vad "Magellanska molnen" är för något? Sök på Internet (alltså; via "Yahoo" eller "Google" eller någon annan sökrobot), och lägg märke till vad det är för typ av websiter du hamnar på.

  8. Länkarna är det allra viktigaste om man vill vara synlig på Internet! Varje gång en sökrobot hälsar på så kollar den också igenom ALLA länkar på websidan. Efter indexeringen besöks sedan dessa länkar, och de funna sidorna indexeras, osv. Om det finns många länkar till din website ute på nätet så innebär detta desto oftare besök av robotarna, och tydligen påverkar detta (med många länkar) också rankingen. Ett sätt att åstadkomma detta är förstås att upplåta reklamplats på dina websidor. Ett annat, bättre, sätt är att gå med i föreningar och fackregister av olika slag med din website, se kolumnen till höger.

    Det är dock viktigt att dina länkar pekar till websidor och websiter som fortfarande finns. Annars kan länkarna ha motsatt effekt på din website; den rankas lägre på robotarnas sökordlistning, p.g.av att den innehåller döda länkar. Det sker ju kontinuerliga förändringar på webben, websidor flyttas, försvinner, döps om. Det innebär att du regelbundet bör kolla att dina länkar funkar. Det finns program som kan göra detta, du behöver inte kolla alla dina länkar manuellt. Döda länkar bör du ta bort, eller söka rätt på deras nya adress, eller finna någon website liknande den ursprungliga.

  9. Lämpliga sökord är förstås viktigt. Vad hjälper det om du rankas högt, om du rankas efter sökord som nästan ingen människa tänker på att använda? Man kan köpa listor från t.ex. Google på lämpliga sökord, sådana som folk använder mest.

    Men det gäller också att tänka till. Om du föreställer dig att tänkbara kunder använder "jojobaolja" som sökord, så kan du få en bra ranking på detta ord, därför att det är ett ganska ovanligt ord, det står inte på så många websiter. Men du bör också ha "rynkmedel" och "ansiktskräm" med som potentiella sökord, därför att det är 100 gånger mer sannolikt att besökarna använder något av dessa ord.

Övriga åtgärder att tänka på

Torp i Eskilstunatrakten

Det fanns en tid när företagare slogs om att komma först i Telefonkatalogens "Gula Sidor". Om man döpte sitt företag till "A. Axelssons hyrfrackar" så fick man ju rätt bra placering i telefonkatalogens alfabetiska listning. Men det övertrumfades snart, när konkurrentfirman döpte sig till "A.A. hyrfrackar", varvid man (förstås) döpte om sin egen firma till "A.A.A. hyrfrackar". Så småningom upptäcktes att "Ömans hyrfrackar" gick i stort sett lika bra, för de hade hittat andra kanaler för sin marknadsföring.

Det gäller att få andra websiter att länka till din website. Det är den allra bästa marknadsföringen, och det kan göras på många sätt:

  1. Reciprocitet: Om du länkar till dem så länkar de till dig.

  2. Upplåta reklamplats. Inte så kul, kanske, men det funkar.

  3. Skriv mycket! Det genererar fler sökord, vilket medför fler besökare. Lägg gärna upp information runtomkring dina produkter och tjänster. Om du t.ex. säljer hälsoprodukter, berätta då vad "jojoba-olja" är för något, hur det framställs och vad det är bra för. Det är det nästan ingen som vet.

  4. Länka till intressant och relevant information!
    Om du inte har tid/lust att själv skriva om dina produkter eller tjänster, länka då istället till websiter som har denna information. Det är i regel en bättre lösning än att skriva själv, för då slipper du göra efterforskningar, och hålla din information aktuell; det gör andra åt dig. Således; om du t.ex. är ägg-producent, länka då gärna till http://www.biol.lu.se och liknande websiter.

    Det finns förstås en nackdel med detta förfarande; besökaren försvinner från din website. Kommer han/hon tillbaks till din site? Tja, ett sätt att underlätta det är att skapa länkarna så att den andra websiten öppnas i ett nytt fönster. Då ligger din website kvar i sitt eget fönster.

  5. Anmäl din website till sökrobotarna i början, genom att kontakta dem. Ju fler söktjänster desto bättre. Kanske. Det finns över hundra robotar, och de flesta är regionalt, språkligt eller ämnesmässigt begränsade. Om du säljer potatis och har ditt lager i Sverige så behöver du inte vara registrerad hos robotar som bara används på Filippinerna.

  6. Använd gärna de kompletterande "plug-ins" som finns för web-browsers. Yahoo, Google och Alexa har t.ex. "toolbars" som underlättar sökningen. Men inte nog med det, söktjänsterna som är knutna till dessa "toolbars" ser hur du använder dessa "toolbars", och hälsar sedan gärna på hos de websiter du besöker. Så, om du då hälsar på hos din egen website så blir den därmed automatiskt indexerad.

  7. Anmäl också din website till alla relevanta fackregister och föreningar av olika slag, på Internet. Många surfare besöker dessa regelbundet, för att få länkar att följa när de letar efter något. Alla söktjänster har sådana register. Sedan finns det yrkesföreninger, klubbar och intresseföreningar av olika slag. Lägg ner tid på att försöka hitta så många som möjligt av dessa, som känns relevanta för dig. Och använd bara de relevanta tjänsterna. Den tid du ägnar åt detta är väl använd.

  8. Gå med i adressregister! En del (som t.ex. SUNETs webkatalog) är gratis, andra (som t.ex. Gula Sidorna) har tjänster som kostar en slant. Kanske är du intresserad av att bli känd utanför Sverige. Isåfall är amerikanska tjänster som t.ex. Open Directory Project, Yellow Pages och Jayde de bästa, för de läses inte bara i USA utan i hela västvärlden.

  9. Idealisterna. Det finns miljoner idealister av olika slag på Internet, människor som utan ersättning upprättar och underhåller register med länkar & information om allt möjligt, bara för att de tycker att detta är roligt, eller känns meningsfullt. Det finns t.ex. privata websiter med en massa nyttig information om diverse produkter, som tillverkarna och återförsäljarna av dessa produkter inte brytt sig om att informera om på sina egna websiter.

    Lokalisera alla relevanta sådana register och se till att du kommer med där. Det kan löna sig mer än du tror.

  10. Utnyttja de möjligheter att synas som finns på Internets söktjänster. Stanna en stund på deras websiter och undersök exponeringsmöjligheterna. T.ex. så finns det hos Alexa en möjlighet att bidraga med en illustration, som sedan kommer med i listningen över träffar på sökord.

    Jämför olika sökrobotar vad gäller snabbhet, popularitet och den tid det tar för en ny sida att bli indexerad. AltaVista har t.ex. i skrivande stund snabbare indexering än den populärare Google.

  11. Att köpa sig en plats i solen. Om du är beredd att lätta på plånboken så tillåter Yahoo att man köper sig en bra träff-positionering för de sökbegrepp man väljer. Och det finns företag som har detta med att köpa sig bra bra sök-positionering hos sökrobotarna som affärsidé. Så t.ex. tar företaget Jajja Communications f.n. 500 kr/mån. och garanterar då att din website får ett visst antal besök.

    Det finns ett begrepp i web-världen som heter "CPC", som står för "cost per click". Man får alltså betala för varje gång en besökare hamnar på din website efter att ha klickat på ett av dina sökord. Jag ska inte gräva djupare i detta system här, men vissa sökord är mer värda än andra, och man får i allmänhet utvärdera med "trial-and-error" vilka sökord som ger mest valuta för pengarna, i form av besök som leder till att du faktiskt säljer något (om det nu är det du vill göra via din website).

  12. PDF-filer: Lägg gärna upp intressant information i form av PDF-filer. Fördelen för surfaren är att dessa PDF-filer är nedladdningsbara, och är sedan lätt läsbara för besökaren när han/hon är nedkopplad. Dessa PDF-dokument går också lätt att printa ut, eftersom PDF-filer går att anpassa till A4-formatet. Många människor uppskattar denna service. PDF-filernas innehåll indexeras också av sökrobotarna, på samma sätt som HTML-filer.

  13. Svara på besökares email! Och gör det helst inom 24 timmar, om du har möjlighet. Detta gäller givetvis inte spam och "ointressanta" mail, utan bara sådana som verkar "vettiga" att besvara. Man ska inte ignorera denna PR-möjlighet.

  14. Periodiska mail-utskick: På många kommersiella websiter har man möjlighet att prenumerera (gratis!) på regelbundna nyhetsbrev, som sedan e-mailas ut så länge man önskar. Det är viktigt att alla mottagare får uttrycka sin vilja att de verkligen vill ha dessa utskick, och att de ges möjlighet (längs ner i varje utskick) att enkelt avbeställa fortsatta utskick! Annars klassas utskicken som spam!

    Avsändaren (dvs. du) påminner på detta sätt med jämna mellanrum om sin existens, vilket är nog så viktigt. Det är lätt att bli bortglömd...

Websiter för mer läsning:

En bra länksamling
Undersökningar hur folk läser websidor.


Att byta webdomän

Hur blir det om/när man flyttar websidor som har hög "ranking" till en annan domän? Ja, att flytta är lätt, men att behålla sin höga ranking hos sökmotorerna är en annan femma (som Beethoven sade).

A common area of misunderstanding and confusion within search optimization has to do with how and when one should use a redirection document. If you’ve moved a site to a new domain and you want your normal traffic to follow, a 301 permanent redirect should be used. There are als other occasions, involving domain-based issues, when 301’s should be utilized.

A 301 redirect means, “The requested resource has been assigned a new permanent URI and any future references to this resource SHOULD use one of the returned URIs.” Meaning the site has moved and the user will now be forwarded to the domain indicated within the redirect. 301 redirects are normally used when a domain has been moved.

Läs mer på "Web Hosting Hunter"s website.


Ang. filen "Robots.txt"

I rot-katalogen hos varje webserver kan man lägga en fil som heter "Robots.txt", och som innehåller information till sökrobotarna hur de ska hantera den information som de påträffar på de websidor som finns på webservern. Det är alltså webhotellet som ansvarar för denna fil, så den är inte åtkomlig för vanlig webmaster.

Följande information kommer från Microsoft:

A Web site administrator can use a Robots.txt file to indicate where robots (Web crawlers) can go on a Web site and whether or not to exclude specific crawlers. Web servers use these rules to control access to sites by preventing robots from accessing certain areas. SharePoint Portal Server always looks for this file when crawling and obeys the restrictions in it.

A Web site administrator can also restrict access to certain documents by using Hypertext Markup Language (HTML) META tags. These tags tell the robot whether it can include the document in the index and whether it can follow the links in the document by using the INDEX/NOINDEX and FOLLOW/NOFOLLOW attributes in the tag. For example, if you do not want the document to be crawled and you do not want links in the document to be followed, you can mark a document with following tag:

<'META name="robots" content= "noindex, nofollow"'>

SharePoint Portal Server always obeys the HTML rules of robots exclusion when SharePoint Portal Server crawls Web sites. Note that robots exclusions are counted as rule exclusions (which are not visible in the gatherer log viewer by default) by SharePoint Portal Server. See the "Gatherer Log Information" section of this article for additional information about how to view the gatherer logs.

Robots.txt files specify restrictions for each User Agent. Change the User Agent string to identify your site when crawling the Internet. By default, the string for SharePoint Portal Server is:
Mozilla/4.0 (compatible; MSIE 4.01; Windows NT; MS Search 4.0 Robot) Microsoft.

To add your identifier, you need to modify the registry.

There is no way to specify credentials in the URL that you specify for a Web site content source. If you want to crawl a password-protected site, create a site path rule. Follow steps 1 through 3 in the "Following Complex Links" section of this article to create the site path rule. Click the Options tab, click the Account tab, and then provide the user name and password.

Each workspace maintains a file type inclusion list, and when content sources are indexed, only those file types are indexed. If a Web site link references an excluded file type, the link is not followed and is logged as a rule exclusion.

If your network uses a proxy server to access the Internet, you must provide the proxy server information so that the SharePoint Portal Server crawler can use that information. This information is configured on the Proxy Server tab of the server's properties in the SharePoint Portal Server Administration console. This information is used only by search, and if you change the information in that location, you do not affect any settings that are configured in Microsoft Internet Explorer.

Configuring Host Hops

When you create a Web site content source, you choose to index either This page or This site. When you select This site, all of the links to pages within that site are followed, but links to other Web sites are not. This can cause an immediate index failure if you attempt to index a Web site in which the default page performs an immediate redirect to another site (for example, if you connect to http://.com and you are redirected to a default page at http://.com). In this case, or if you want the crawler to follow links to other sites, you must configure a custom host hops setting. You can set host hops on the Configuration tab of the Web site content source properties.

IMPORTANT: Limit the number of site hops to the absolute minimum number necessary. When you perform an Internet crawl, you might index millions of documents in just a few site hops. If you set the number of site hops on a Web site content source to unlimited (by clicking Custom, and then clicking to clear the "Limit site hops" and "Limit page depth" check boxes), you must include a site path rule that specifically includes that content source in the index. Otherwise, the content source is automatically excluded from the index to prevent unlimited crawling. The site path rule strategy that is recommended when you are crawling Internet sites is to create an exclusion rule for the entire HTTP URL space (http://*), and then create inclusion rules for only those sites that you want to index.

Being a Considerate Crawler

When you crawl someone else's Web site, you increase the load on that server. You can use site hit frequency rules to avoid overloading a Web site that you are indexing. Site hit frequency rules specify how frequently documents are requested from a site and how many documents are requested. Site hit frequency rules are configured on the Load tab of the server's properties in the SharePoint Portal Server Administration console.

Last Updated: 2007-01-02
Författare: Ove Johnsson