رزفایل

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

رزفایل

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

تحقیق درمورد همه چیز درباره موتور های جستجو گر درجهان 72 ص

اختصاصی از رزفایل تحقیق درمورد همه چیز درباره موتور های جستجو گر درجهان 72 ص دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 75

 

همه چیز درباره موتور های جستجو گر درجهان

موتورهای جستجو چگونه کار می کنند؟

وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می شود، کاربران در واقع نتیجه کار بخش های متفاوت موتور جستجوگر را می بینند. موتور جستجوگر قبلا" پایگاه داده اش را آماده کرده است و این گونه نیست که درست در همان لحظه جستجو، تمام وب را بگردد. بسیاری از خود می پرسند که چگونه ممکن است گوگل در کمتر از یک ثانیه تمام سایت های وب را بگردد و میلیون ها صفحه را در نتایج جستجوی خود ارایه کند؟

گوگل و هیچ موتور جستجوگر دیگری توانایی انجام این کار را ندارند. همه آنها در زمان پاسخ گویی به جستجوهای کاربران، تنها در پایگاه داده ای که در اختیار دارند به جستجو می پردازند و نه در وب! موتور جستجوگر به کمک بخش های متفاوت خود، اطلاعات مورد نیاز را قبلا" جمع آوری، تجزیه و تحلیل می کند، آنرا در پایگاه داده اش ذخیره می نماید و به هنگام جستجوی کاربر تنها در همین پایگاه داده می گردد. بخش های مجزای یک موتور جستجوگر عبارتند از:

Spider یا عنکبوت

Crawler یا خزنده

Indexer یا بایگانی کننده

Database یا پایگاه داده

Ranker یا سیستم رتبه بندی

الف Spider- (عنکبوت)

اسپایدر یا روبوت (Robot)، نرم افزاری است که کار جمع آوری اطلاعات مورد نیاز یک موتور جستجوگر را بر عهده دارد. اسپایدر به صفحات مختلف سر می زند، محتوای آنها را می خواند، لینکها را دنبال می کند، اطلاعات مورد نیاز را جمع آوری می کند و آنرا در اختیار سایر بخش های موتور جستجوگر قرار می دهد. کار یک اسپایدر، بسیار شبیه کار کاربران وب است. همانطور که کاربران، صفحات مختلف را بازدید می کنند، اسپایدر هم درست این کار را انجام می دهد با این تفاوت که اسپایدر کدهای HTML صفحات را می بیند اما کاربران نتیجه حاصل از کنار هم قرار گرفتن این کدها را.

اما یک اسپایدر آنرا چگونه می بیند؟

برای این که شما هم بتوانید دنیای وب را از دیدگاه یک اسپایدر ببینید، کافی است که کدهای HTML صفحات را مشاهده کنید.برای این کار به شکلهای زیر نگاه کنید.

اسپایدر، به هنگام مشاهده صفحات، بر روی سرورها رد پا برجای می گذارد. شما اگر اجازه دسترسی به آمار دید و بازدیدهای صورت گرفته از یک سایت و اتفاقات انجام شده در آن را داشته باشید، می توانید مشخص کنید که اسپایدر کدام یک از موتورهای جستجوگر صفحات سایت را مورد بازدید قرار داده است

اسپایدرها کاربردهای دیگری نیز دارند، به عنوان مثال عده ای از آنها به سایت های مختلف مراجعه می کنند و فقط به بررسی فعال بودن لینک های آنها می پردازند و یا به دنبال آدرس ایمیل (Email) می گردند.

ب- Crawler (خزنده)

کراولر، نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل می کند. آن مشخص می کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم می گیرد که کدام یک از لینک های صفحه ای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. ممکن است همه آنها را دنبال کند، بعضی ها را دنبال کند و یا هیچ کدام را دنبال نکند.

کراولر، ممکن است قبلا" برنامه ریزی شده باشد که آدرس های خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آنها دیدن کند. دنبال کردن لینک های یک صفحه به این بستگی دارد که موتور جستجوگر چه حجمی از اطلاعات یک سایت را می تواند (می خواهد) در پایگاه داده اش ذخیره کند. همچنین ممکن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد.

شما به عنوان دارنده سایت، همان طور که دوست دارید موتورهای جستجوگر اطلاعات سایت شما را با خود ببرند، می توانید آنها را از بعضی صفحات سایت تان دور کنید و اجازه دسترسی به محتوای آن صفحات را به آنها ندهید. موتور جستجو اگر مودب باشد قبل از ورود به هر سایتی ابتدا قوانین دسترسی به محتوای سایت را (در صورت وجود) در فایلی خاص بررسی می کند و از حقوق دسترسی خود اطلاع می یابد. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل Robots انجام می شود. به عمل کراولر ، خزش (Crawling) می گویند.

ج- Indexer (بایگانی کننده)


دانلود با لینک مستقیم


تحقیق درمورد همه چیز درباره موتور های جستجو گر درجهان 72 ص

تحقیق درمورد تکامل وب و مقایسهء ابزارهای جستجو در اینترنت 17ص

اختصاصی از رزفایل تحقیق درمورد تکامل وب و مقایسهء ابزارهای جستجو در اینترنت 17ص دانلود با لینک مستقیم و پر سرعت .

لینک دانلود و خرید پایین توضیحات

فرمت فایل word  و قابل ویرایش و پرینت

تعداد صفحات: 17

 

تکامل وب و مقایسهء ابزارهای جستجو در اینترنت

چکیدهاین مقاله تکامل وب را در رابطه با وب و فناوری‌های بازیابی اطلاعات بررسی می‌کند. در این بررسی بین عناصر مختلف وب در زمینهء نمایه‌سازی و صفحات جستجوی وب وجه تمایز وجود دارد. ده ابزار اصلی و مهم وب براساس معیارهای انتخاب و تعداد اتصال‌ها با یکدیگر مقایسه و ارزیابی شده‌اند. ابزارهای جستجو مانند راهنماها و موتورهای جستجوگر نیز مورد بررسی و مقایسه قرار گرفته‌اند.کلیدواژه : وب، راهنماهای جستجوگر، موتورهای جستجوگر مقدمهکلمه اینترنت مخفف "Interconnected Networks" و به معنی شبکه‌های به‌هم‌مرتبط است. اینترنت سیستمی برای توزیع و تبادل اطلاعات در سطح جهان است که براساس آخرین آمار موجود در حال حاضر 226 کشور به آن متصل هستند. این مجموعه به همراه فناوری‌های ساده کاربردی، سبب کاهش هزینهء نشر الکترونیکی شده است (1).در هر صورت، وب یک عنصر منسجم و واضح مستقل نیست، بلکه دو عنصر مجزای وب وجود دارند: وب قابل‌رویت و دیدنی، و وب نامرئی و غیرقابل رویت(2).برای فهم کاربرد این دو عنصر و برای ارزیابی اطلاعات ضرورت دارد که از موضوع خارج شویم و ببینیم چگونه صفحات وب تولید می‌شوند.دو نوع صفحهء وب وجود دارند: استاتیک و دینامیک.صفحات وب استاتیک توسط طراح وب، در خدمات‌دهندهء وب نصب می‌شوند و برای هر کس و هر چیزی که وب سایت را مشاهده کند قابل دسترس‌اندو هر تغییری هم باید به صورت دستی انجام شود.صفحات وب دینامیک توسط رایانه با به‌کارگیری دستورهای یک زبان دستنوشته(1) و اغلب «سی‌جی‌آی‌جاوا»(2)که به عنوان پلی بین سرویسگرهای پروتکل انتقال ابرمتن (3) و کاربران وب عمل می‌کند، ایجاد می شود.دستورهای یک زبان دستنوشته، نتایج را در یک صفحهء خالی وب جا می‌دهند و به کاربر، صفحهء وب دینامیک را ارائه می‌دهند. صفحات وب استاتیک اطلاعات عام و کلی را برای کاربر تهیه می‌کند، در حالی که صفحات وب دینامیک، اطلاعات منحصربه‌فرد را برای کاربر تهیه می‌نمایند. صفحات وب استاتیک برای همهء کاربران قابل رویت‌اند و در دسترس می باشند.

 

صفحات وب دینامیک

صفحات وب استاتیک

توسط رایانه تولید می‌شوند

دستی تولید می‌شوند.

اطلاعات منحصربه‌فرد است

اطلاعات عام و کلی است

قابل نمایه‌سازی نمی‌باشند

اکثر آن‌ها قابل نمایه‌سازی هستند

اولین مطالعه در موسسه تحقیقاتی «ان‌ئی‌‌سی» در پرینستون آمریکا در دسامبر سال 1997 نشان داد که صفحات وب قابل رویت، حداقل 320 میلیون صفحهء وب را شامل می‌شوند، در حالی که دومین مطالعه تخمین زد که تعداد صفحات وب رشد کرده و به 800 میلیون صفحه در فوریه سال 1999 رسیده‌اند. در هر صورت، اکثر ناشرین اطلاعاتشان را بر روی وب به وسیلهء پایگاه‌های اطلاعاتی بزرگ توزیع می‌کنند. این اطلاعات اساسا جنبه تجاری دارد (2).موتورهای جستجوگر(4) و راهنماهای وب2. 1. راهنماهای وبچه تفاوتی بین راهنمای وب و موتور جستجو وجود دارد؟راهنمای وب: الف. فهرستی از سایت‌های وب که از قبل تعیین شده‌اند، می‌باشد؛ب. توسط ویراستاران جمع‌آوری شده؛ج. براساس موضوع و عنوان طبقه بندی شده؛د. انتخابی است.با توجه به این که راهنماهای وب توسط افراد جمع‌آوری می‌شوند, تصمیم‌گیری دربارهء کیفیت محتوای هر یک از سایت‌های وب قبلا انجام شده است. در نتیجه راهنماهای وب در اینترنت بسیار مورد مراجعه قرار می‌گیرند، زیرا کاربران به دنبال موضوعات خاصی در اینترنت هستند که این راهنماها، نقطهء شروع خوبی در تشخیص بهترین‌ها در وب می‌باشند.در کاربرد راهنماهای وب، کاربر می‌تواند در بین فهرست‌‌های راهنما حرکت نماید. راهنماهای اصلی وب همچنین اجازهء عبور از دیگر موتورهای جستجو را هم می‌دهند. مثلا بزرگ‌ترین راهنمای وب، یعنی «یاهو»، اجازهء عبور از موتور های جستجوی دیگر را می‌دهد. سایت‌‌های وبی که به وسیلهء راهنمای وب نمایه‌‌سازی شده‌اند، به علت روند تکمیل به صورت دستی، در آن راهنماها باقی می‌مانند؛ مگر این که به احتمال بسیار ضعیف به صورت دستی حذف شوند. در حالی که وجود دائمی یک لیست یا یک فهرست در موتور جستجو همیشه ضمانت نمی‌شود، اما ساختن و حضور دائمی یک فهرست در یک راهنمای وب مثل «یاهو» امکانپذیر می‌باشد.2. 2. موتورهای جستجوگروقتی که یک موتور جستجوگر را به کار می‌برید، کاربر، پایگاه اطلاعاتی سایت‌های وب را جستجو می‌نماید. همه موتورهای جستجوگر دارای سه جزء ترکیبی هستند:الف. «اسپایدرها»(5)که سایت‌های وب را بررسی می‌کنند،ب. فهرست‌ها و نمایه پایگاه اطلاعاتی؛ج. نرم‌افزار بازیابی اطلاعات.2 . 2 .1. اسپایدرهای موتورهای جستجوگرپایگاه اطلاعاتی موتورهای جستجوگر ابتدا توسط «اسپایدرها» ساخته می‌شود و توسط موتورهای جستجوگر به مأخذ اصلی اعزام می‌شود.«اسپایدرها» برنامه‌هایی هستند که وب را به دنبال صفحات جدید وب جستجو می‌نمایند، کلمات را نمایه‌سازی می‌کنند و اتصال را به صفحات برقرار می‌نمایند، سپس کلمات نمایه‌شده را با آد‌رسی که به یک صفحهء وب یا هر منبعی که بر روی وب جهانی و به طور کلی اینترنت قرار دارد اشاره می‌نماید,(6) مقابله می‌کنند.2. 2 .2. نمایهء پایگاه اطلاعاتی موتور جستجواین بخش عنصر اصلی از هر موتور جستجو است. این همان چیزی است که کاربر به دنبال آن است. در طی سال 1998 تعدادی از تولید‌کنندگان موتورهای جستجو آغاز به


دانلود با لینک مستقیم


تحقیق درمورد تکامل وب و مقایسهء ابزارهای جستجو در اینترنت 17ص

مقاله درباره الگوریتم های جستجو

اختصاصی از رزفایل مقاله درباره الگوریتم های جستجو دانلود با لینک مستقیم و پر سرعت .

مقاله درباره الگوریتم های جستجو


مقاله درباره الگوریتم های جستجو

لینک پرداخت و دانلود در "پایین مطلب"

 فرمت فایل: word (قابل ویرایش و آماده پرینت)

 تعداد صفحات:13

عدول کردن

عدول کردن نوعی الگوریتم است که جستجوی ناشیانه را پالایش می کند.در عدول کردن ،راه حل های متعددی را می توان بدون اینکه صریحا آزمایش کرد ،با استفاده از متعلقات خاص مسئله ،  حذف کرد.

این مسئله می تواند یک استراتزی برای یافتن راه حل هایی باشد که بتوان حل مسائل را محدود کرد.بحث

عدول کردن توسط ریاضی دان آمریکایی D. H. Lehmer in 1950s اختراع شد.

اجراء

الگوریتم های عدول کن از هر امکانی استفاده می کند تا وقتی آنها مورد صحیح را بیابند.اولین جستجوی

زرف  این سری از راه حل های ممکن می باشد. در طی جستجو ،اگر یک تبدیل کار نکند ،جستجو دوباره به مورد باز می گردد،مکانی که تبدیلات متنوعی را ارایه می دهد،و تبدیل بعدی را امتحان می کند.وقتی تبدیلات

تحلیل بروند ،جستجو دوباره به مورد قبلی باز می گردد و تبدیل بعدی را امتحان می کند.اگر مورد دیگری وجود نداشته باشد ،جستجو شکست می خورد.این مسئله اغلب در توابع بازگشتی به دست می آید جایی که هر

نمونه یک متغیر بیشتردر اختیار بگیرد و متناوبا همه ارزش های در دسترس را به آن تخصیص داد، ویکی را که با تماس های بازگشتی  متعاقب سازگار است را نگاه داشت .عدول کردن شبیه اولین جستجوی زرف است اما حتی فضای کمتری را استفاده می کند ،فقط حالت راه حل اخیر را نگاه می دارد و آنرا به روزکند.

برای تسریع جستجو ،وقتی یک ارزش انتخاب شده است ،قبل از اینکه تماس بازگشتی انجام شود ، الگوریتم

یا آن ارزش را از تعارض قلمروهای تخصیص داده نشده ،حذف کند یا همه محدودیت ها را برای مشاهده

اینکه دیگر ارزش های نو را از ارزش های تخصیص داده شده مستثنی کرد.این موثرترین تکنیک برای مسائل محقق مانند کوله پشتی 0/1 و مسئله n-queen می باشد.این قضیه نتایج بهتری را نسبت برنامه ریزی دینامیک برای این مسائل ارایه میدهد.

 

روش اکتشافی

روش های اکتشافی بسیاری برای تسریع پروسه معمول هستند .چرا که متغیرها به هر ترتیبی  پردازش می شوند ،به طور کلی ابتدا آزمایش موردهای اجباری موثرتر است (موردی که با گزینه های ارزشی کمتری است) همان گونه که درخت جستجو را زود قطع می کند.(تاثیر مورد اخیر را به حداکثر می رساند).

وقتی به دنبال انتخاب یک ارزش برای تخصیص هستیم ،بسیاری عملکردها را در آزمایش برای مشاهده اینکه

کدام ارزش حداقل شمار ارزش ها را محدود می کند،استفاده می کنیم ،در پیش بینی اینکه چنین موردی

1>بسیار محتمل در نگاه داشتن یک راه حل ممکن

2>یک راه حل زمانی پیدا می شود که شمار محدودیت های بسیار واضح به صفر کاهش پیدا کرده است.

عملکردهای پیچیده عدول کردن اغلب یک تابع اتصالی را برای راه حل پاره ای اخیراستفاده می کند،که آیا حصول یک راه حل امکان پذیر است.از این رو،یک آزمایش اتصالی که راه حل های پاره ای را معین می کند بهنگام  شکست خوردن می تواند تاثیر گزاری جستجو را افزایش دهد.از آنجایی که در صورت امکان در هر مرحله اغلب اجرا می شود وهزینه محاسبه ای نیازهای محاسبه ای می بایست کمینه باشد،در غیر اینصورت

تاثیرگزاری کلی الگوریتم اصلاح نشده است.توابع اتصالی تاثیرگذار با یک روش مشابه به دیگر توابع اکتشافی خلق می شوند-توسط تعدیل قوانین مسئله .وقتی عدول کردن در یک زبان برنامه ریزی محدودیتی  اتفاق می افتد،یک مقدار اضافی عملیاتی اتفاق می افتد زمانی که اطلاعات راجع به محدودیت ها وقتی توسط

حل کننده محدودیت استفاده می شود ،نیاز به روز شدن دارد.در این زبان ها اولین جستجوی زرف یک تکنیک

اجرایی کافی می باشد،همتن گونه که در Planner & Prolog استفاد شد.به علاوه حصول کمینه بهبود ارزش ها در پشتیبانی استفاده می شود ،عملکرد های عدول کردن به طور معمول یک مسیر متفاوت را حفظ

می کنند، تا اینکه یک سابقه از تغییر ارزش ضبط گردد.یک پیشنهاد متناوب در مسیر متغیر ثبت نوار زمانی

اینکه آخرین تغییر چه زمانی در متغیر ایجاد شده است.نوار زمانی با نوار زمانی  نقطه گزینش مقایسه میشود.


دانلود با لینک مستقیم


مقاله درباره الگوریتم های جستجو

الگوریتم های جستجو اکتشافی

اختصاصی از رزفایل الگوریتم های جستجو اکتشافی دانلود با لینک مستقیم و پر سرعت .

الگوریتم های جستجو اکتشافی


           الگوریتم های جستجو اکتشافی

الگوریتم های جستجو اکتشافی

39  صفحه قابل ویرایش 

قیمت فقط 3000 تومان 

 

 

چکیده

مقوله ژنتیک با انتشار کتاب مهم و جنجالی چارلز داروین انگلیسی که در آن فرضیه تکاملی خود را مطرح کرده بود در تاریخ 24 نوامبر سال 1859 میلادی به طور جدی مطرح شد. او در کتاب خود که در فارسی با نام > بنیاد انواع< شهرت پیدا کرده است، مبانی فکری و فرضیه خود دال بر تکامل سیر پیش رونده و رو به جلوی > خلقت تدریجی < را ارائه کرد. ناگفته پیداست که این مسأله در تعارض شدید با نظریات کلیسای آن زمان که به آفرینش آنی و > خلقت دفعی< انسان معتقد بود، قرار داشت.

در سال 1865 میلادی تحقیقات گریگوری مندل کشیش اتریشی درباره وراثت و تکامل و اصولی که به طور تجربی به دست آورده بود چند سال پس از مرگش انتشار یافت. این تحقیقات توجه بسیاری را معطوف به این موضوعات نمود. در سال 1903 > کروموزوم< به عنوان واحد وراثت معرفی گردید. در سال 1905 برای اولین بار واژه > ژنتیک< توسط یک زیست شناس انگلیسی به نام ویلیام بیستون وضع گردید و مورد استفاده قرار گرفت.

در سال 1927 واژه «جهش» برای بیان تغییرات فیزیکی در ژن‌ها وضع شد. در سال 1931 واژه «برش» یا «همبری» وضع گردید. در سال 1953 میلادی ساختار DNA به طور کامل به شکل مارپیچی توسط جیمز واتسون و فرانسیس کریک توضیح داده شد که برای آنان جایزه را نیز به ارمغان آورد. در سال 1977 میلادی اولین تلاش‌ها برای دست‌یابی به مدل کامل ژنتیکی یعنی ژنوم انسانی به بار نشست. مشکلات بسیاری همچون تحقیقات بسیار پرهزینه و زمان طولانی نسل‌ها برای مطالعات ژنتیکی و نیز عدم امکان ایجاد ازدواج‌های با برنامه مانند موجودات آزمایشگاهی همچنان خودنمایی می‌کرد. پیش بینی می‌شود پروژه «ژنومیک» یعنی نقشه برداری کامل ژنتیکی انسان تا پایان سال 2005 میلادی به انجام برسد. در صورت وقوع چنین امری، اهمیت این مسأله هم‌ردیف با کشف آتش یا اختراع خط ارزیابی می‌شود. هم اکنون شاخه‌های فراوانی در علم ژنتیک مشغول بسط بیش از پیش دامنه خود هستند:

بررسی کروموزوم‌ها (سیتوژنتیک)

مطالعه ساختمان ژن‌ها (ژنتیک مولکولی)

تشخیص بیماری‌ها (ژنتیک بالینی)

ژنتیک اپیدمیولوژی

ژنتیک توسعه

ژنتیک جمعیت

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

فهرست مطالب

 

فصل اول بهینه سازی.. 1

مقدمه‌ 2

1-1 الگوریتم‌های مینیمم یابنده 2

 

فصل دوم هیوریستیک‌ها 4

2-1 هیوریستیک‌ها 5

2-2 انواع الگوریتم‌های هیوریستیک 7

 

 

فصل سوم معرفی کلی الگوریتم ژنتیک 8

مقدمه. 9

3-1 الگوریتم ژنتیک... 10

3-2 مکانیزم الگوریتم ژنتیک... 12

3-3 عملگرهای الگوریتم ژنتیک... 15

3-3-1 Encoding. 15

3-3-2 Evaluation. 15

3-3-3 Crossover 15

 

فصل چهارم جهش.... 16

مقدمه. 17

4-1 رمزگشایی.. 17

4-2 چارت الگوریتم به همراه شبه کد آن.. 17

4-3 شبه کد و توضیح آن.. 18

4-4 چارت الگوریتم.. 20

4-5 کد کردن.. 21

4-6 کدینگ باینری.. 22

4-7 کدینگ جایگشتی.. 22

4-7-1 کدگزاری مقدار 24

4-8 کدینگ درخت... 24

4-9 نمایش رشته‌ها 24

4-10 انواع روش‌های تشکیل رشته. 26

4-10-1 روش سری.. 27

4-10-2 روش محاطی.. 27

4-11 بازگرداندن رشته‌ها به مجموعه متغیرها 28

4-12 تعداد بیت‌های متناظر با هر متغیر. 29

 

 

فصل پنجم جمعیت... 30

مقدمه. 31

5-1 ایجاد جمعیت اولیه. 31

5-2 اندازه جمعیت... 32

5-3 محاسبه برازندگی (تابع ارزش) 33

5-4 انتخاب... 34

5-4-1 انتخاب چرخ رولت... 35

5-4-2 انتخاب ترتیبی.. 37

5-4-3 انتخاب بولتزمن.. 37

منابع.. 39

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

فهرست اشکال

فصل سوم

شکل 3-1 الگوریتم ژنتیک... 10

 

فصل چهارم

شکل 4-1 چارت الگوریتم.. 20

شکل 4-2 کدینگ درخت 24

 شکل 4-3 روش محاطی 27

 

 

 

 

 

 

 

 

 

 

 

 

 

 

فهرست جداول

فصل چهار

جدول 4-1 نمونه کروموزوم الگوریتم ژنتیکی.. 26

 

 

 

 

 

 

 

 

 

 

 


دانلود با لینک مستقیم


الگوریتم های جستجو اکتشافی