دانلود مقاله همه چیز درباره موتور های جستجو گر درجهان

Word 459 KB 18187 40
مشخص نشده مشخص نشده کامپیوتر - IT
قیمت قدیم:۲۴,۰۰۰ تومان
قیمت: ۱۹,۸۰۰ تومان
دانلود فایل
  • بخشی از محتوا
  • وضعیت فهرست و منابع
  • موتورهای جستجو چگونه کار می کنند؟
    وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می شود، کاربران در واقع نتیجه کار بخش های متفاوت موتور جستجوگر را می بینند.

    موتور جستجوگر قبلا پایگاه داده اش را آماده کرده است و این گونه نیست که درست در همان لحظه جستجو، تمام وب را بگردد.

    بسیاری از خود می پرسند که چگونه ممکن است گوگل در کمتر از یک ثانیه تمام سایت های وب را بگردد و میلیون ها صفحه را در نتایج جستجوی خود ارایه کند؟


    گوگل و هیچ موتور جستجوگر دیگری توانایی انجام این کار را ندارند.

    همه آنها در زمان پاسخ گویی به جستجوهای کاربران، تنها در پایگاه داده ای که در اختیار دارند به جستجو می پردازند و نه در وب!

    موتور جستجوگر به کمک بخش های متفاوت خود، اطلاعات مورد نیاز را قبلا جمع آوری، تجزیه و تحلیل می کند، آنرا در پایگاه داده اش ذخیره می نماید و به هنگام جستجوی کاربر تنها در همین پایگاه داده می گردد.

    بخش های مجزای یک موتور جستجوگر عبارتند از:
    Spider یا عنکبوت
    Crawler یا خزنده
    Indexer یا بایگانی کننده
    Database یا پایگاه داده
    Ranker یا سیستم رتبه بندی
    الف Spider- (عنکبوت)
    اسپایدر یا روبوت (Robot)، نرم افزاری است که کار جمع آوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد.

    اسپایدر به صفحات مختلف سر می زند، محتوای آنها را می خواند، لینکها را دنبال می کند، اطلاعات مورد نیاز را جمع آوری می کند و آنرا در اختیار سایر بخش های موتور جستجوگر قرار می دهد.

    کار یک اسپایدر، بسیار شبیه کار کاربران وب است.

    همانطور که کاربران، صفحات مختلف را بازدید می کنند، اسپایدر هم درست این کار را انجام می دهد با این تفاوت که اسپایدر کدهای HTML صفحات را می بیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را.
    اما یک اسپایدر آنرا چگونه می بیند؟


    برای این که شما هم بتوانید دنیای وب را از دیدگاه یک اسپایدر ببینید، کافی است که کدهای HTML صفحات را مشاهده کنید.برای این کار به شکلهای زیر نگاه کنید.


    اسپایدر، به هنگام مشاهده صفحات، بر روی سرورها رد پا برجای می گذارد.

    شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یک سایت و اتفاقات انجام شده در آن را داشته باشید، می توانید مشخص کنید که اسپایدر کدام یک از موتورهای جستجوگر صفحات سایت را مورد بازدید قرار داده است
    اسپایدرها کاربردهای دیگری نیز دارند، به عنوان مثال عده ای از آنها به سایت های مختلف مراجعه می کنند و فقط به بررسی فعال بودن لینک های آنها می پردازند و یا به دنبال آدرس ایمیل (Email) می گردند.
    ب- Crawler (خزنده)
    کراولر، نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل می کند.

    آن مشخص می کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد.

    در واقع کراولر تصمیم می گیرد که کدام یک از لینک های صفحه ای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود.

    ممکن است همه آنها را دنبال کند، بعضی ها را دنبال کند و یا هیچ کدام را دنبال نکند.
    کراولر، ممکن است قبلا برنامه ریزی شده باشد که آدرس های خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آنها دیدن کند.

    دنبال کردن لینک های یک صفحه به این بستگی دارد که موتور جستجوگر چه حجمی از اطلاعات یک سایت را می تواند (می خواهد) در پایگاه داده اش ذخیره کند.

    همچنین ممکن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد.


    شما به عنوان دارنده سایت، همان طور که دوست دارید موتورهای جستجوگر اطلاعات سایت شما را با خود ببرند، می توانید آنها را از بعضی صفحات سایت تان دور کنید و اجازه دسترسی به محتوای آن صفحات را به آنها ندهید.

    موتور جستجو اگر مودب باشد قبل از ورود به هر سایتی ابتدا قوانین دسترسی به محتوای سایت را (در صورت وجود) در فایلی خاص بررسی می کند و از حقوق دسترسی خود اطلاع می یابد.

    تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل Robots انجام می شود.

    به عمل کراولر ، خزش (Crawling) می گویند.
    ج- Indexer (بایگانی کننده)
    تمام اطلاعات جمع آوری شده توسط اسپایدر در اختیار ایندکسر قرار می گیرد.

    در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار می گیرند و به بخش های متفاوتی تقسیم می شوند.

    تجزیه و تحلیل بدین معنی است که مشخص می شود اطلاعات از کدام صفحه ارسال شده است، چه حجمی دارد، کلمات موجود در آن کدامند، کلمات چندبار تکرار شده اند، کلمات در کجای صفحه قرار دارند و ...

    .
    در حقیقت ایندکسر، صفحه را به پارامترهای آن خرد می کند و تمام این پارامترها را به یک مقیاس عددی تبدیل می کند تا سیستم رتبه بندی بتواند پارامترهای صفحات مختلف را با هم مقایسه کند.

    در زمان تجزیه و تحلیل اطلاعات، ایندکسر برای کاهش حجم داده ها از بعضی کلمات که بسیار رایج هستند صرفنظر می کند.

    کلماتی نظیر a ، an ، the ، www ، is و ...

    .

    از این گونه کلمات هستند.
    د - Database (پایگاه داده)
    تمام داده های تجزیه و تحلیل شده در ایندکسر، به پایگاه داده ارسال می گردد.

    در این بخش داده ها گروه بندی، کدگذاری و ذخیره می شود.

    همچنین داده ها قبل از آنکه ذخیره شوند، طبق تکنیکهای خاصی فشرده می شوند تا حجم کمی از پایگاه داده را اشغال کنند.

    یک موتور جستجوگر باید پایگاده داده عظیمی داشته باشد و به طور مداوم حجم محتوای آنرا گسترش دهد و البته اطلاعات قدیمی را هم به روز رسانی نماید.

    بزرگی و به روز بودن پایگاه داده یک موتور جستجوگر برای آن امتیاز محسوب می گردد.

    یکی از تفاوتهای اصلی موتورهای جستجوگر در حجم پایگاه داده آنها و همچنین روش ذخیره سازی داده ها در پایگاه داده است.و- Ranker (سیستم رتبه بندی)
    بعد از آنکه تمام مراحل قبل انجام شد، موتور جستجوگر آماده پاسخ گویی به سوالات کاربران است.

    کاربران چند کلمه را در جعبه جستجوی (Search Box) آن وارد می کنند و سپس با فشردن Enter منتظر پاسخ می مانند.

    برای پاسخگویی به درخواست کاربر، ابتدا تمام صفحات موجود در پایگاه داده که به موضوع جستجو شده، مرتبط هستند، مشخص می شوند.

    پس از آن سیستم رتبه بندی وارد عمل شده، آنها را از بیشترین ارتباط تا کمترین ارتباط مرتب می کند و به عنوان نتایج جستجو به کاربر نمایش می دهد.
    حتی اگر موتور جستجوگر بهترین و کامل ترین پایگاه داده را داشته باشد اما نتواند پاسخ های مرتبطی را ارایه کند، یک موتور جستجوگر ضعیف خواهد بود.

    در حقیقت سیستم رتبه بندی قلب تپنده یک موتور جستجوگر است و تفاوت اصلی موتورهای جستجوگر در این بخش قرار دارد.

    سیستم رتبه بندی برای پاسخ گویی به سوالات کاربران، پارامترهای بسیاری را در نظر می گیرد تا بتواند بهترین پاسخ ها را در اختیار آنها قرار دارد.


    یک موتور جستجوگر به وسیله الگوریتمی که در اختیار دارد، تصمیم می گیرد که صفحات مرتبط را چگونه در نتایج جستجو مرتب و رتبه بندی کند.

    در حال حاضر قدرتمندترین سیستم رتبه بندی را گوگل در اختیار دارد.

    مفاهیم و اصطلاحات دنیای جستجو و موتورهای جستجوگر قبل از شروع گفتگو درباره هر موضوعی نیاز به آن است که مفاهیم اولیه و اصطلاحات رایج در آن موضوع، بیان شود تا طرفین گفتگو راحت تر به منظور یکدیگر پی ببرند.

    برخی از مفاهیم و اصطلاحات حوزه SEO در این مقاله شــرح داده شده است.

    Spider, Crawler, Robot نرم افزاری است که کار جمع آوری اطلاعات از صفحات سایتهای مختلف را بر عهده دارد.

    Directory فهرست.

    نوعی از موتورهای جستجوگر که پایگاه داده آن توسط ویراستاران تکمیل می گردد.

    در آنها سایتها در گروههایی موضوعی دسته بندی می شوند.

    Keyword بــه واژه ها ی مهم (کلیدی) هر صفحه گفته می شود.

    اما غالبا" منظور کلماتی است که دوست داریم با آنها رتبه های مناسبی کسب کنیم.

    Keyword Density چگالی کلمه، منظور تعداد دفعات تکرار واژه های کلیدی در مقایسه با سایر کلمات متن است.

    Keyword Staffing تکرار یک کلمه به دفعات و پشت سر هم به منظور بالا بردن چگالی کلمه.

    این کار تقلب محسوب می شود.

    Tinny Text نوشتن متن با اندازه های بسیار کوچک و ریز به گونه ای که کلمات بسیاری بدین ترتیب در یک خط قرار داده می شود و به سختی نیز در صفحه قابل رویت هستند.

    نوشتن مطالب به این صورت، تقلب محسوب است.

    Invisible Text متن نامرئی.

    منظور استفاده از متن های همرنگ با پس زمینه صفحه است.

    متن هایی که از دید کاربران مخفی می ماند.

    به عنوان مثال اگر پس زمینه یک صفحه سیاه است، متن صفحه نیز با رنگ سیاه نوشته می شود تا دیده نشود .

    این نوع متن ها از مصادیق تقلب می باشند.

    Spam تقلب، به تمام تلاش هایی گفته می شود که به کمک آن سعی می شود از راه های غیر معمول، رتبه های بالایی کسب شود.

    یا در اختیار گذاردن اطلاعاتی که موتورهای جستجوگر آنرا دوست ندارند (اطلاعات ناخواسته) مانند تکرار یک کلمه به دفعات و پشت سر هم، استفاده از متن های هم رنگ زمینه و ...

    ALT tag محتوای این شناسه، متنی است که یک عکس را توضیح می دهد.

    Deep Crawl به معنای این است که موتور جستجوگر، می تواندصفحات زیادی از یک سایت را در پایگاه داده اش قرار دهد.

    موتور جستجوگر هرچه پایگاه داده اش بزرگتر باشد، صفحات بیشتری از یک سایت را می تواند در پایگاه داده اش قرار دهد.

    همه موتورهای جستجوگر دارای این ویژگی نمی باشند.

    Robots.txt با این فایل متنی و ساده، میزان دسترسی موتور جستجوگر به محتوای یک "سایت" را می توان کنترل کرد.

    robots tag به کمک این شناسه میزان دسترسی موتور جستجوگر به محتوای یک "صفحه" را می توان کنترل کرد.

    Link پیوند.

    در واقع پلی بین دو صفحه است.

    به کمک آن می توان از یک صفحه به صفحه دیگر رفت.

    Link Popularity مقصود این است که چه تعداد از سایت های دیگر به سایتی مشخص لینک کرده اند یا اینکه از چند سایت دیگر می توان به کمک پیوندها به سایتی مشخص رفت.

    Link Reputation اشاره به این دارد که سایر سایتها درباره سایتی که بدان لینک داده اند، چه می گویند.

    عموما در این موارد عنوان، متن لینک و کلمات اطراف لینک در سایت مقصد، بررسی می شوند.

    Learn Frequency بعضی از موتورهای جستجوگر می توانند تشخیص دهند که محتوای صفحات پس از چه مدتی تغییر می کند (به روز می گردد) و بعد از آن مدت به آن صفحات مراجعه می کنند.

    URL-Uniform Resource Locator به آدرس منحصر به فرد هر منبع موجود در اینترنت گفته می شود.

    این منبع می تواند یک صفحه وب، یک فایل متنی و...

    باشد Stop Word به کلماتی گفته می شود که در کل اینترنت از آنها بسیار استفاده شده است.

    کلماتی نظیرthe, a, an, web www, home page, و ...

    tags به کمک این شناسه ها، اطلاعاتی از صفحه در اختیار بینندگان (موتور جستجوگر، مرورگرها و ...) قرار داده می شود.

    Keywords به کمک آن، کلمات کلیدی صفحه در اختیار موتورهای جستجوگر قرار داده می شود.

    Description به کمک آن، توضیحی مختصر از صفحه در اختیار موتورهای جستجوگر قرار داده می شود.

    Stemming به معنای این است که موتور جستجوگر می تواند صورت های مختلف یک کلمه را جستجو کند.

    به عنوان مثال با جستجوی swim موتور جستجوگر به دنبال swimmer ، swimming نیز می گردد.

    Rank رتبه یک صفحه در نتایج جستجو است زمانی که جستجویی مرتبط با محتوای آن صفحه انجام می شود.

    Spam indexing منظور طراحی و معرفی صفحاتی به موتورهای جستجوگر است که کیفیت نتایج جستجو را پایین می آورند.

    موتورهای جستجوگر تمایل دارند که کاربران بارها و بارها به آنها مراجعه کنند و کیفیت بالای نتایج می تواند این روند را تضمین کند.

    لذا آنها هرکدام به نوعی سعی در تشخیص صفحاتی دارند که کیفیت نتایج جستجو را پایین می آورد.

    برخی از این موارد عبارتند از: ساختن صفحاتی که همگی دارای محتوای یکسانی اند، تکرار یک کلمه بیش از حد و ...

    Comment توضیحاتی است که طراحان سایت در لا به لای کدهای HTML می گنجانند تا برای فهمیدن وظیفه بخش های متفاوت کدهای HTML در مراجعات آتی نیازی به صرف وقت بسیار نداشته باشند.

    گوگل محبوبترین موتور جستجو: ا«گوگل» یکى از بزرگ‌‌ترین موتورهاى جست‌وجوى جهان در اینترنت است که بیش از تمام موتورهاى جست‌وجوى دیگر و به ویژه براى فارسى زبان‌‌ها، کاربرد دارد.

    به دلیل قابلیت‌‌هاى گوگل(Google)، اغلب کاربران تمایل دارند براى جست‌وجوى اطلاعات در تصاویر و صفحات از این موتور جستجو که قابلیت جست‌وجوى فارسى نیز دارد، استفاده کنند.

    بنابراین گزارش، توسط گوگل، مى‌‌توان به جست‌وجوى تصاویر، ترجمه صفحات وب، فایل‌‌هایPDF، لینک‌‌هاى درون Cached نگه‌‌داشته شده، صفحات مشابه‌‌ و افرادى که به کاربران لینک کرده‌‌اند، پرداخت.

    گفتنى است، اگر چه گوگل به عنوان یکى از مشهورترین موتورهاى جست‌وجو، تقریبا براى تمام کاربران شناخته شده است‌‌، ولى بسیارى از کاربران با کاربردها و قابلیت‌‌هاى ویژه این موتور جست‌وجو آشنا نیستند.

    این گزارش حاکى است، گوگل، سد زبان را با قابلیت ترجمه جدید خود(بتا) شکسته و با استفاده از قابلیت ترجمه با ماشین، این موتور به انگلیسى زبانان قابلیت استفاده از بسیارى صفحات غیر انگلیسى را مى‌‌دهد.

    همچنین، توسط این موتور مى‌‌توان به جست‌وجوى بیش از 250 میلیون تصویر قابل مشاهده در فهرست پرداخت و یا فایل‌‌هاى PDF را مورد جست‌وجو قرار داد، فهرست سندهایى که گوگل براى کاربران مى‌‌یابد، اکنون فایل‌‌هاى PDF را نیز در بر مى‌‌گیرد و ذخیره‌سازى یک عکس از هر صفحه به عنوان نسخه پشتیبان براى زمانى که صفحه اصلى موجود نباشد، از دیگر امکانات این موتور است.

    گفتنى است، وقتى کاربر بر روى Similar pages براى دیدن نتیجه یک جست‌وجو کلیک کند، گوگل به صورت خودکار صفحات مربوطه را براى رسیدن به نتیجه، اکتشاف مى‌‌کند، با تایپ آدرس مقابل کلمه Link در محل جست‌وجوى گوگل مى‌‌توان کسانى که به آدرس تایپ شده کاربر لینک داده‌‌اند را، دریافت کرد.

    همچنین، با قرار دادن آدرس دامین یک سایت در مقابل کلمه Sit در محل جست‌وجوى گوگل مى‌‌توان جست‌وجوى خود را به دامین آن سایت محدود کرد و در آخر با کلیک کردن بر روى گزینه«یا شانس یا اقبال» (I m feeling lucky)، مى‌‌توان به اولین صفحه وبى که گوگل جست‌وجو کرده رفت، بدون آن‌‌ که نتایج دیگر جست‌وجو را مشاهده کرد.

    بر اساس تازه‌ترین نظرسنجی انجام شده ، "Google" به عنوان محبوب ترین موتور جستجوگر برای کاربران ایرانی شناخته شد.

    در این نظرسنجی که در سایت "ایران سئو" انجام شد، از کاربران خواسته شده است تا "موتور جستجوگر محبوب" خود را مشخص کنند.

    بنا بر نتایج به دست آمده از نظرسنجی مذکور، سایت گوگل با اختلاف زیادی در رده اول با کسب رتبه‌های بعدی این نظر سنجی به" پنج درصد آرا نیز به سایر موتورهای جستجوگر داده شد.

    بنا بر گزارش سایت ایران سئو ، مقایسه این نظرسنجی با نمونه‌های مشابه که در خارج از کشور انجام شده است، نشان می‌دهد که اختلاف گوگل با رقبای اصلی آن یعنی یاهو و در این گزارش امده است: پشتیبانی مناسب گوگل از زبان فارسی مهمترین دلیل در کسب این جایگاه است.

    در این نظرسنجی دو هزار و ۵۰۷ کاربر اینترنت شرکت کرده اند.

    بزرگترین بانک‌های اطلاعاتی جهان حدس بزنید بزرگ‌ترین بانک‌های اطلاعاتی (Database) جهان کدامند؟

    برای یافتن پاسخ کافی است حضور ذهن داشته باشید تا نام دوتا از بزرگ‌ترین‌ها را به خاطر بیاورید.

    بله!

    آن‌ها گوگل و یاهو هستند.

    این بانک‌های اطلاعاتی غول‌آسا یک نسخه از جدیدترین صفحات وب اکثر سایت‌های اینترنتی جهان را در خود ثبت کرده‌اند.

    البته بحث درباره این که کدام یک از این دو بانک بزرگ‌تر است، سال‌هاست جریان دارد و گویا پایانی هم برای آن متصور نیست.

    مقامات مسئول هریک از دو سایت آمار متفاوتی درباره خود و دیگری ارائه می‌دهند و البته طرفداران این دو رقیب نیز نظرات متفاوتی دارند.

    با این وجود، از شواهد چنین برمی‌آید که دیتابیس گوگل به مراتب بزرگ‌تر از یاهو است و این را می‌توان از تفاوت تعداد صفحات ثبت شده در موتور جست‌وجوی این دو و نیز تعداد مراجعات از هر یک از آن‌ها به یک سایت مشخص حدس زد.

    از سال 2001 به این سو، یک شرکت تحقیقاتی به نام وینتر (Winter) دست به ابتکار جالبی زده است.

    این شرکت تلاش می‌کند هر دو سال یک‌بار فهرست بزرگ‌ترین بانک‌های اطلاعاتی جهان را براساس یک روش پژوهشی معین تهیه و منتشر کند.

    تحقیق وینتر فقط آن دسته از شرکت‌هایی را شامل می‌شود که حجم دیتابیس مورد استفاده آن‌ها حداقل یک ترابایت (هزار گیگابایت) باشد.

    با این حال، چون هدف این شرکت از تهیه فهرست رده‌بندی مذکور، مقایسه قدرت و کارایی نرم‌افزارهای تجاری مدیریت بانک‌های اطلاعاتی است، متأسفانه نام گوگل در این رده‌بندی دیده نمی‌شود؛ زیرا گوگل از یک سیستم فایلی ویژه استفاده می‌کند و به هیچ نرم‌افزار تجاری خاص برای ایجاد بانک اطلاعاتی خود متکی نیست.

    بنابراین می‌توان حدس زد که اولین نام در فهرست ده دیتابیس بزرگ جهان در این فهرست، همان یاهو است.

    یاهو در صدر طبق گزارش شرکت وینتر در سال 2005، بانک‌اطلاعاتی یاهو بیش از صد ترابایت ( صدهزار گیگابایت) حجم دارد.

    جالب است بدانید این دیتابیس عظیم‌ روی نرم‌افزار مشهور اوراکل و سیستم‌عامل قدرتمند یونیکس بنا شده است.

    یاهو نرم‌افزار اوراکل را مستقیماً از شرکت اوراکل خریداری کرده است، اما سرورهای یاهو از نوع Prime Power و ساخت شرکت فوجیتسو زیمنس است و سیستم ذخیره‌سازی اطلاعات این بانک اطلاعاتی غول‌آسا را شرکتEMC به یاهو فروخته است.

    موتور جستجو گر داخلی سایت در صورتیکه پورتال و یا وب سایت شما دارای آنچنان وسعتی که نیاز به نصب و راه اندازی موتور جستچو در کارگزار اختصاصی، وجود ندارد، شما می توانید مشترک خدمات جستجوی سفارشی ما شوید.

    موتور جستجوگر رادکام در رایانه های قدرتمند با توان پردازشی و ذخیره سازی بالا نصب و راه اندازی شده است.

    این رایانه ها با خطوط پر سرعت به شبکه جهانی وب متصل هستند.

    همه این کارها برای آن انجام شده است تا در کمترین زمان (کمتر از یک ثانیه) جستجوی واژگان مورد نظر شما انجام و به شما ارسال گردد.

    رابط های برنامه نویسی (API) با زبانهای PHP,CSharp,Visual Basic, JSP طراحی شده است و در اختیارتان قرار خواهد گرفت.

    شما متناسب با زبان برنامه نویسی مورد استفاده در وب سایت و یا پورتال خود، رابط مناسب را انتخاب و آن را نصب می کنید.

    این رابط های برنامه نویسی طوری پیاده شده اند که به راحتی با برنامه های شما یکپارچه شوند.

    کاربران وب سایت شما هیچگاه متوجه نخواهند شد که عملیات جستجو از خارج از محدوده وب سایت انجام می شود.

    چرا که هنگامی که کاربر جستجویی را آغاز می کند، عبارت مورد جستجو از طریق رابط برنامه نویسی جاسازی شده در برنامه های وب سایت، به کارگزار جستجو در شبکه رادکام ارسال می گردد.

    این کارگزار عبارت را جستجو کرده و نتیجه آن را در برای رابط برنامه نویسی در وب سایت شما ارسال می کند سپس این رابط نتیجه را برای تغییر و تحول و عرضه با شکل و قالب متناسب با وب سایت ، در اختیار شما قرار می دهد.

    همه این کارها در کمتر از یک ثانیه انجام می گردد.

    نمونه بارز این خدمت را در وب سایت رادکام (www.radcom.ir) می توانید مشاهده کنید.

    در این وب سایت رابط برنامه نویسی با زبان CSharp و درمحیط dotNet مورد استفاده قرار گرفته است.

    اما نکته جالب اینجاست که استفاده از این نوع المان تقریبا دیگر منسوخ شده !

    4-کلید واژه ها را در تگ Alt مشخص کنید : المان Alt در واقع توضیحی برای تصاویر است اما چون توسط ربوتهای جوستجوگر مورد بازدید قرار میگیرد میتوان کلمات کلیدی را در آن گنجاند اما باید توجه داشت مقدار آن از 50 کاراکتر تجاوز نکند زیرا که بازیدید کننده ها میتوانند با ایستاندن موس بر روی تصویر کلیه کلمات به کار رفته را ببینند علاوه بر آن بیشتر مرورگرها این خصیصه را در یک خط ظاهر میکنند که اگر طولانی باشد نمای زشتی به صفحه وب میدهد.

    3- کلید واژه ها را در تگ meta مشخص کنید ( صریح ترین راه ممکن!) : این روش استاندارد ترین و پر کاربردترین روش ممکن برای شناساندن سایت با استفاده از کلیدواژه‌ها است اما این به معنی نقض روش‌های پیشین نیست !

    از خوبی های این روش میتوان به نا مرئی بودن کلمات توصیفی سایت یا همان keywords ها اشاره کرد که در این روش کلمات کلیدی تنها در سورس قایل رویت هستند از این جهت روشی کاملا ایده آل به حساب می‌آید در قسمت Head صفحه کد زیر را بعد از کد متای encoding وارد کنید : برای جدا کردن کلمات کلیدی باید بین انها فاصله بدهید یا از کاما استفاده کنید.

    چند نکته مهم درباره کلمات کلیدی یا همان keyword ها : • برای مشخص موضوع صفحه باید از کلمات بسیار عمومی ومنحصر به فرد استفاده کنید استفاده از کلمات فارسی هیچ مشکلی ندارد اما باید بدانید اگر بیننده کلمات را برای سرچ به فارسی استفاده کند سایت شما در نتایج قرار میگیرد در ضمن یادتان باشد encoder صفحه را روی UTF-8 تنظیم کنید • افزودن کلماتی که از نظر املائی سخت هستند را هم حالت صحیح و هم اشتباه را وارد کنید !

    • اگر در طراحی صفحه خود از frameset ها استفاده کردید در هر یک از فریم ها کلمات کلیدی را وارد کنید ولی این به این معنی نیست اگر یک صفحه با 3 فریم دارید در نتایج جستجو همان صفحه با 3 فریم ظاهر شود بلکه ممکن است هر فریم به صورت جدا ایندکس شود به همین خاطر استفاده از iframe ها , frame set ها پیشنهاد نمیشود!

    • بعضی از موتورهای جستجو در مورد استفاده از تگ متا نکات خاصی را ارائه داده اند مانند موتور جستجو گر altavista که میتوانید از اینجا بخوانید • موتور جستجوگر محبوب Google کلید واژه ها را در تگ متا نادیده میگیرد این موتور جستجو بیشتر به کلماتی که در محتویات صفحه ظاهر میشود حساس است مانند محتویات title و header و Alt به کار میرود [شرحی کوتاه که بعضی موتورها های جستجو گر در زیر URL صفحه مینویسند] برای راحتی کار کاربران در هنگام جستجو موتورهای جستجو اطلاعات مربوط به هر صفحه را در کنار آدرس URL آن قرار میدهند بعضی از موتورهای جستجو به شما امکان میدهند توضیح دلخواه خود را ارائه دهید تا در کنار آدرس صفحه شما درج شود .

    متاسفانه گوگل از این قاعده مستثنی است زیرا که گوگل یک موتور محتوا گرا است و بیشتر سعی میکند از متن داخل صفحه که با کلمه سرچ شده تناسب دارد استفاده کند از نظر موتور جستجوی altavista، تعداد کلمات و عبارات توضیحی شما نباید از 1024 بیشتر باشد از کد زیر برای ویرایش توضیحات استفاده کنید : مجموعه نتایج جستجو به صورت لیستی از لینکها به بیننده تحویل داده میشود.

    در میان این لینکها، صفحاتی که توضیحات مناسبی درباره آنها ارائه شده است شانس انتخاب بیشتری دارند.در واقع هرچه توضیحی ارائه شده از جانب شما دقیقتر و گویا تر باشد، بیننده گرایش و میل بیشتری در انتخاب آن خواهد داشت.

    اگر در طراحی صفحه خود از frameset ها استفاده کردید باید در هر فریم توضیحات را در تگ متا وارد کنید ولی این باعث نمیشود تا در نتایج جستجو فریم ها از هم جدا نشوند !

    [کنترل بقیه اطلاعات توسط متا تگ های دیگر ] 1- جلوگیری از دسترسی موتورهای جستجگر به صفحات خصوصی موتور های جستجو برنامه های کوچکی موسوم به robot یا spider را بر یافتن صفحات جدید به کار میبندند تا آنها را به فهرست موتور اضافه کنند اما گاهی اوقات ممکن است صفحه شما کاملا خصوصی باشد و نخواهید کسی آن را مشاهده کند به عنوان مثال ممکن است آن را برای خانواده خود طراحی کرده باشید و یا یک صفحه داخلی مربوط به شرکت شما باشد بنابراین میتوانید اطلاعاتی را به صفحه خود اظافه کنید که بیشتر روبات های جستجو گر قادر به شناسایی آن نباشند کد : المان noindex برای جلوگیری از آرشیو شدن صفحه شما المان nofollow برای جلوگیری از دنبال کردن لینکهای داخل صفحه توسط موتورهای جستجوگر است تذکر : • ساده ترین راهی که برای دسترسی افراد به یک صفحه وجود دارد این است که هیچ صفحه دیگری را به این صفحه پیوند نزنید و البته صفحه موجود را به هیچ موتوری تحویل ندهید.

    • اگر قبلا صفحه شخصی شما یا هر صفحه دیگر توسط موتور جستجویی index شده و میخواهید آن را از آرشیو پاک کنید باید آن را توسط صفحه remove URL که در سایت هر جستجو گری است پاک کنید 2- جلوگیری از نگهداری صفحات در آرشیو بعضی موتورهای جستجو یکی کپی از صفحه وب شما را ذخیره میکنند اگر آن صفحه از کار افتاده یا به هر دلیلی غیر قابل دسترس باشد آن صفحه ذخیره شده را به بیننده نشان میدهند ولی هیچ تضمینی مبنی بر مطابقت صفحه ذخیره شده توسط موتور با صفحه فعلی وجود ندارد بنابراین میتوانید از رباتها بخواهید صفحه شما را در آرشیو نگه ندارند.

    کد: بعد از برخورد موتورهای جستجو با ین کد آن را به فهرست اضافه میکنند اما آن را آرششیو نمیکنند.

    توجه: • در حال حاضر Google مهمترین موتوری است که صفحات وب را آرشیو میکند اگر فقط میخواهید گوگل را زا آرشیو کردن باز دارید کد را به این صورت تغییر دهید : 3- متا تگ های غیر فعال !

    در صورت تمایل میتوانید اطلاعاتی درباره نویسنده و طراح صفحه و برنامه ای که برای ساخت کد HTML به کار رفته و یا توضیحاتی درباره کپی رایت آن ارائه دهید ولی باید توجه داشته باشید که هیچ یک از موتورهای جستجو از آنها استفاده نمیکنند و مرورگرهای فعلی آن را نمایش نمیدهند تنها اگر به سورس صفحه نگاه انداخته شود متوجه آن خواهند شد یا اینکه در صورت ذخیره شدن صفحه شما در هارد دیسک افراد این اطلاعات نیز ذخیره میشود.

    کد: توجه : • بیشتر برنامه هایی که برای ویرایش صفحات وب به کار میروند به طور خودکار المان generator را به کد ها تزریق میکنند در صورت عدم رضایت میتوانید آنها را پاک کنید.

    • ما در آستانه تحولی عظیم در وب هستیم که آن را Web 2.0 مینامند هیچ بعید نیست اطلاعات این کد ها در مرورگرها بعدا به صورت خصوصیات صفحه نمایش داده شود پس استفاهده از آن را به شما پیشنهاد میکنم !

    [ ساختن یک صفحه کمکی یا نقشه سایت برای موتورهای جستجو ] هنگام تحویل یک صفحه به یک موتور کاوشگر این موتور توسط robot های خود تمامی لینکهای موجود در صفحه را دنبال کرده و به فهرست می افزاید این فرایند برای سایت های بزرگ کمی زمان میبرد شما میتوانید خودتان صفحه ای بسازید و تمامی لینکهای مهم را در آن قرار دهید سپس ان صفحه را به موتورهای جستجو تحویل دهید این صفحه فرایند کاوشگری توسط روبوتهای جستجوگر را تسریع میبخشد.

    1- ساختن یک نقشه سایت (site map) با IE 6.0 • دستور Favorites > Organize Favorites را اجرا کنید • در کار باز شده Create Folder را کلیک کنید و نام نقشه سایت مورد نظر را در آن بنویسید سپس کادر محاوره ای را ببندید • حالا باید تک تک صفحاتی که میخواهید جزو نقشه سایت باشد را باز کنید • پس از باز کردن هر صفحه دستور Favorites > Add to Favorites را اجرا کنید • پوشه ای را که هم نام صفحه کمکی شماست از لیست انتخاب نموده و سپس دکمه Ok را کلیک کنید اگر پوشه شما در این لیست ظاهر نشده است دکمه Create in را کلیک کنید تا لیست تمام پوشه ها به نمایش درآید • هنگامی که تمامی صفحات دلخواه را اضافه کردید دستور File > Import and EXport را اجرا کنید با استفاده از ویزارد باز شده آدرس تمامی صفحات را میتوانید به صورت یک فایل HTML استخراج کنید.

    • این صفحه را در سرور upload کنید ن همیصفحه را به موتور و های جستجو گر معرفی کنید.

    2- ساختن یک نقشه سایت (site map) با Firefox 1.0.5.3 • دستور Bookmarks > Manage Bookmarks...

    را اجرا کرده در صفحه باز شده File > New Folder را انتخاب کنید سپس نامی برای سایت مپ انتخاب کنید • حالا صفحاتی قرار است جزو این لیست باشد مراجعه کنید سپس Ctrl+D در هر صفحه بزنید در کادر باز شده فولدری را که ساختید را انتخاب کرده و Ok را بزنید • برای خروجی گرفتن باید دستور Bookmarks > Manage Bookmarks...

    را دوباره اجرا کنید و دستور File >Export را انتخاب کرده سپس site map را سیو کنید در فایر فاکس تمامی فولدر هایی هم که از قبل ساخته بودید جزو این لیست خواهد بود از یک برنامه ویرایشگر HTML برای اصلاح آن استفاده کنید.

    [تحویل دادن یک صفحه به موتور جستجوگر] پس از اینکه که کلیدواژه های مناسبی را برای صفحات خود انتخاب کردید و متا تگ های اختیاری را به آن ضافه نمودید و شاید یک صفحه کمکی را برای سایت خود تهیه کردید باید از موتورهای جستجو دعوت کنید تا صفحات شما را به data base خود اضافه کنند هر چند اگر شما آنها را دعوت نکنید سر خود این کار را خواهند کرد !

    (اما این فرایند زمان میبرد) • به موتور جستجوی مورد نظرتان بروید و صفحه add URL آن را بیاورید • آدرس صفحه add URL برای 3 موتور جستجوگر یاهو، گوگل و آلتاویستا را در زیر میبینید : Google : http://www.google.com/addurl.htm Yahoo : http://docs.yahoo.com/info/suggests Altavista : http://www.altavista.com/sites/search/addurl در دنیای بیکران اینترنت این مهم است که سایت شما در موتورهای جستجوگر به درستی آرشیو شود پس متا تگ ها را فرموش نکنید و همچنین سادگی و واضحی کلمات در توضیحات و کلید کلمات !

    با وجود میلیاردها صفحه وب که اینترنت را به دریایی بی در و پیکر تبدیل کرده شاید لازم باشد به منظور جلب توجه افراد برای دیدن صفحات وب خود اندکی فریاد بکشید !

    در این مقاله سعی کردم تا چگونگی ثبت سایت در این موتورهای جستجو و بهتر شدن نتیجه کار با استفاده از متا تگ ها را توضیح بدم عمده بحث بر روی ابر موتورهاست با وجود اینکه 10 سال پیش تعداد این موتور ها از انگشتان یک دست فرا تر نمیرفت هم اکنون تعداد آنها سر به فلک گذاشته است اما ابر موتورهای جستجو گر همچنان صدر نشین هستند.

    کلید واژه ها شاهرگ شناسایی سایت شما توسط موتورهای جستجو در اینترنت هستند !] هنگامی که بینندگان برای پیدا کردن اطلاعات مورد نظرشات به یک موتور جستجو گر مراجعه میکنند آنچه نیاز دارند را در قالب واژه یا واژه هایی برای سایت جستجو گر تعریف میکنند هرچه ارتباط معنایی این کلمات و موضوع سایت شما بیشتر باشد شانس شما برای قرار گرفتن در نتیجه جسجو بیشتر میشود.

    در انتخاب کلید واژه ها (keywords) دقت کنید و تمام سعی خود را بر انتخاب واژه های مناسب با محتویات صفحه خود معطوف کنید کلید واژه ها باید در جاهای زیر قرار گیرند : موتور جستجو یا جویشگریا جستجوگر به طور عمومی به برنامه‌ای گفته می‌شود که کلمات کلیدی را در یک سند یا بانک اطلاعاتی جستجو می‌کند.

    در اینترنت به برنامه‌ای گفته می‌شود که کلمات کلیدی موجود در فایلهاو سندهای وب جهانی، گروههای خبری، منوهای گوفر و آرشیوهای FTP را جستجو می‌کند.

با پیشرفت بشر در زمینه‌های مختلف علمی و افزایش سطح آگاهی انسان درباره پدیده‌های مختلف و البته نیاز رو به گسترش ما به دانش و اطلاعات در این عصر زمینه برای بروز پدید‌ه‌های مختلفی که بتواند خواسته‌های علمی و اطلاع رسانی انسان را برای برآورده‌ سازد افزایش یافته است . با ساخت کامپیوتر در اواسط قرن گذشته مقداری از نیازهای انسان برآورده شد با گذشت زمان این دستگاه در قسمتهای مختلف جامعه ...

رشد اینترنت شگفت آور شده است. با توجه به تحقیق میدانی در سال 1996 این رشد تصاعدی همچنان ادامه دارد. و تخمین زده شده که شبکه از نظر اندازه و حجم هر 12 تا 15 ماه دو برابر می‌شود. بطور تقریبی 000/100 وب‌گاه در اگوست 1995 وجود داشته و این تعداد در اگوست 1996 به 041/536 رسیده است. از آنجائی که هر پایگاه می‌تواند بسیاری از صفحات وب را در خود داشته باشد این باعث می‌شود که تعداد بیشتری ...

همانطور که میدانیم شبکه جهانی اینترنت روز به روز در حال گسترش است و طراحان صفحات وب از یک طرف و استفاده کننده گان از طرف دیگر با این شبکه ارتباط برقرار می کند .در این میان افزایش روز افزون صفحات وب مشکل انتخاب صفحات مورد نیاز را برای کاربران ایجاد ساخته است . پس از ان موتورهای جستجو به کمک کاربران شتافته و ان ها را در بدست اوردن اطلاعات مورد نیاز یاری می دهند . این موتورهای ...

رشد اینترنت شگفت‌آور شده است. با توجه به تحقیق میدانی در سال 1996 این رشد تصاعدی همچنان ادامه دارد. و تخمین زده شده که شبکه از نظر اندازه و حجم هر 12 تا 15 ماه دوبرابر می‌شود. بطور تقریبی 000/100 وب‌گاه در اگوست 1995 وجود داشته و این تعداد در اگوست 1996 به 041/536 رسیده است. از آنجائی که هر پایگاه می‌تواند بسیاری از صفحات وب را در خود داشته باشد این باعث می‌شود که تعداد بیشتری ...

تا این اواخر و تا قبل از سال 1997 ، Alta Visa عملکرد وسعیی در ارائه صفحات اینترنتی داشته است . ارائه این صفحات مدت طولانی نیست . صفحات ثبت نام (Register) شده به نظر می رسد که دارای امتیاز بالایی است یا برای ثبت نام در دومین مرحله امتیازی کسب می شود اما مشکلی که در Alta Visa وجود دارد این است که لیستهای بازگشتی به Alta Visa هیچ رابطه ای با موتورهای جستجوی دیگر ندارد و این کار ...

موضوعی که در این مجموعه مورد بررسی قرار گرفته است ترتیب اولویت بندی موتورهای جستجو در اینترنت می باشد موارد Search شده در Search engine به ترتیب های خاصی از بالا به پایین قرار می گیرند وهر موتور جستجو برای این اولویت بندی الگوریتم خاصی را درنظر می گیرد که این یک راز و رمز تجاری برای طراحان آن می باشد . ما در این مجموعه در ابتدا به توضیح مختصری درباره تاریخچه web پرداخته و پس از ...

مبانی جستجوی گوگل: وقتی شما چند کیورد (Keywords) را با هم جستجو می‌کنید، یک موتور جستجو یک استراتژی از پیش تعیین شده‌ای برای بررسی و ترکیب کیوردهای شما دارد. آیا هر یک از کیوردها می‌توانند به تنهایی در هر جای صفحه وجود داشته باشند یا باید کنار هم قرار گرفته‌ باشند؟ آیا موتور جستجو کلمات کلیدی را با هم جستجو می‌کند یا تک‌تک؟ جستجوی یک عبارت: گوگل به صورت پیش‌فرض، کلمات کلیدی شما ...

موتورهای DC  یکی از اولین موتورهای دوار، اگر نگوییم اولین، توسط میشل فارادی در سال 1821م ساخته شده بود و شامل یک سیم آویخته شده آزاد که در یک ظرف جیوه غوطه ور بود، می شد. یک آهنربای دائم در وسط ظرف قرار داده شده بود. وقتی که جریانی از سیم عبور می کرد، سیم حول آهنربا به گردش در می آمد و نشان می داد که جریان منجر به افزایش یک میدان مغناطیسی دایرهای اطراف سیم می شود. این موتور ...

چون مقدار زیادی از قدرت الکتریکی تولید شده بصورت متناوب میباشد ، بیشتر موتورها طوری طرح شده اند که با جریان متناوب کار کنند . این موتورها در بیشتر موارد میتوانند دو برابر موتورهای جریان مستقیم کارکنن و زحمت آنها در موقع کارکردن کمتر است ، چون در موتورهای جریان مستقیم همیشه اشکالاتی در کموتاسیون آنها ایجاد میشود که مستلزم عوض کردن ذغالها یا زغال گیرها و یا تراشیدن کلکتور است . ...

تقابل ریخته گری دقیق با روش DSPC در تولید قطعات با شکل نهایی مقدمه روش ریخته گری دقیق به عنوان روشی برای تولید قطعات کوچک با دقت بالا و تولتید خوشه‌های با ظرفیت حمل قطعات بیشتر (تیراژ بالا) نسبت به سایر روش‌های دیگر ریخته گری از اهمیت بیشتری برخوردار می‌باشد. از آنجا که راه اندازی سیستم ریخته گری دقیق برای قطعات بزرگ با تیراژ تولید کم توجیه اقتصادی ندارد، تمایل به ترکیب این روش ...

ثبت سفارش
تعداد
عنوان محصول