می خواستم یه بحثی روی این نرم افزار ها داشته باشیم که چگونه فایل ها رو تا حجم زیادی فشرده می کنند و اون هم در سرعت پردازشی خیلی بالا الگوریتم فشرده سازی رو انجام می دهند.
می خواستم یه بحثی روی این نرم افزار ها داشته باشیم که چگونه فایل ها رو تا حجم زیادی فشرده می کنند و اون هم در سرعت پردازشی خیلی بالا الگوریتم فشرده سازی رو انجام می دهند.
من چیز زیادی نمیدونم ولی با تبدیل رشته ها تو فایل به عدد با الگوریتمهای hashing و rehashing میشه صرفه جویی قابل توجهی کرد.
گرچه ظرفیت دستگاه های حافظه جانبی به طور فزاینده ای بیشتر و قیمتشان کمتر میشه ، ولی تقاضای ذخیره اطلاعات نیز در حال افزایش است. پس فایل داده ها باید به طور کامل بر روی حافظه جانبی ذخیره شود و مسئله فشرده سازی داده ها ، یافتن روش مناسبی برای کد گذاری فایل داده ها است.
روش متداول نمایش فایل ، کد دودویی است. در این کد ، هر کاراکتر با رشته دودویی منحصر به فردی نمایش داده می شود که کد واژه نام دارد.
مطالعه الگوریتم هافمن شاید بتونه بهت کمک کنه که یک روش حریصانه است.
سلام:
بحث فشرده سازی اصولا به نوع داده ای میخواهیم عملیات فشرده سازی انجام بدیم مربوط میشود. لذا بکار بردن ناصحیح یه برنامه فشرده ساز بر روی یه فایل غیر معقول علاوه بر اینکه حجم رو کاهش نمیده بلکه میتونه باعث افزایش حجم بشه.
مثلا فایلهای گرافیکی برای خودشون یه برنامه مخصوص برای فشرده سازی احتیاج دارند و معمول ترین الگوریتم برای فشرده سازی الگوریتم تعداد تکرار هست.
خوب هافمن رو هم میشه پیاده کرد ولی قدرت کمتری داره.
در حالت کلی برای نوشتن برنامه برای چنین کاری باید یه مطالعه دقیق از رفتار بانکهای اطلاعاتی و هچنین نوع داده های درون آنها داشته باشیم که این بهترین راه برای درک نحوه فشرده کردن داده هاست.
موفق باشید.
همان طور که هنگامی فایلی یا فولدری در هارد ایجاد می کنیم اون رو به صورت رندم روی هارد ذخیره می کند و در هنگام دفرکت منت کردن هارد آنها رو مرتب می کند و در کنار هم می گذارد در یک فایل هم به همین ترتیب است .
یعنی وقتی بایتی از داده را می خواهد ذخیره کند به صورت مرتب در کنار هم قرار نمی دهد .
به همین ترتیب کار این نرم افزار ها به گونه ای است که بایت ها رو شیفت می دهد .
در همین حد می دونم .
ميشه يه مقداري در مورد hashing و rehashing توضيح بدينمن چیز زیادی نمیدونم ولی با تبدیل رشته ها تو فایل به عدد با الگوریتمهای hashing و rehashing میشه صرفه جویی قابل توجهی کرد.
تا جايي كه من اطلاع دارم WinZip براي فشرده سازي از الگوريتم هافمن استفاده مي كنه.
الگوریتم هایی که تاریخچه خود را فراموش می کنند، محکوم به تکرار آن هستند.