首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 250 毫秒
1.
针对一般的有损压缩方法不能同时实现无损压缩的情况,实现了一类基于整数小波变换和嵌入式编码的心电数据压缩方法,不仅能够进行有损压缩,也能够实现无损压缩.并且比较了EZW、SPIHT和SPECK三种主要的嵌入式编码算法的性能优劣,为移动心电监护以实时性、信号质量和编码可伸缩性为根据选择数据压缩方法提供了参考.  相似文献   

2.
提出一种基于整型提升小波变换的图像块压缩编码方法.整型提升小波变换具有计算快速、能实现任意图像尺寸的小波算法、能在当前位置完成小波变换、节省内存等特点,而且该提升算法能同时对图像进行有损或无损压缩,因而更适应于远程医疗系统和医学图像压缩系统.基于图像块压缩编码方法不仅可以实现比特率控制,还可以实现SNR(信噪比)可缩放性,支持图像的渐进传输.  相似文献   

3.
医学影像无损压缩存储在医院的需求日益迫切,本文阐述了JPEG2000的压缩流程,并分析了它所采用的压缩方法--小波压缩。针对医学影像的无损压缩,采用了结合提升方案的整数小波变换对其进行改进。试验结果证明,与标准的JPEG2000相比本文方法的图像压缩效果更好。  相似文献   

4.
医学图像无损压缩与有损压缩技术的进展   总被引:1,自引:0,他引:1  
本文对医学图像无损压缩和有损压缩的概念和应用进行了分析比较,并简要介绍了几种近年来发展的图像无损压力方法,重点介绍了有损压缩中的小波图像压缩技术和分形图像压缩技术。在医学图像的压缩中,通过有效地结合无损压缩和有损压缩技术,可以在得到医学要求的图像保真度的前提上,达到较高的压缩比。  相似文献   

5.
医学图像无损压缩与有损压缩技术的进展   总被引:5,自引:0,他引:5  
本文对医学图像无损压缩和有损压缩的概念和应用进行了分析比较 ,并简要介绍了几种近年来发展的图像无损压缩方法 ,重点介绍了有损压缩中的小波图像压缩技术和分形图像压缩技术。在医学图像的压缩中 ,通过有效地结合无损压缩和有损压缩技术 ,可以在得到医学要求的图像保真度的前提上 ,达到较高的压缩比  相似文献   

6.
目的:研究一种基于多小波变换的医学影像融合的算法。方法:对已配准的PET图像和CT图像进行预滤波后进行多小波分解,对分解后的图像低频分量采用平均梯度法及高频分量采用自适应加权法的融合规则进行图像融合,经过多小波重构及后滤波得到融合图像。结果:融合图像通过结合源图像的信息,增加了更多的细节和纹理信息,从而得到了良好的融合效果。结论:实验证明,基于该算法,可以得到图像的最佳融合结果。  相似文献   

7.
医学图像数据量大,在高效压缩的同时确保其压缩后的高保真度是医学图像压缩首要考虑的因素。使用第二代整数实现的提升格式小波变换代替原来的小波变换,保证图像的可逆性和小波特性,能够实现真正的无损压缩。实验结果表明,在此基础上完成的多集集合分裂算法(SPIHT),对医学图像的压缩更加平滑,视觉效果好,压缩效果和质量较高,提高了重构图像的PSNR。  相似文献   

8.
目的针对脑电信号中眼电伪迹去除尚存在的问题,提出一种基于典型相关分析与小波变换的(wavelet—enhanced canonical correlation analysis,wCCA)自动去除眼电伪迹的算法。方法首先,充分利用脑电信号和眼电伪迹的空间分布特征,将基于典型相关分析的盲源分离算法分别应用于左右脑区的混合信号中,从而保证典型相关分析分解得到的第一个典型相关变量(即左右脑区之间的最公共成分),就是眼电伪迹分量。然后为了恢复泄漏在该伪迹分量中的脑电成分,对伪迹分量进行小波阈值滤波,将高于某一阈值的小波系数置零,而保留低于阈值的系数。结果与其他三种基于盲源分离去除眼电伪迹的方法相比较,该方法在有效地自动去除眼电伪迹的同时,很好地保留了潜在的脑电信号,去除效果明显优于其他三种方法。结论由于该算法简单,处理速度较快,因此应用于实时的脑机接口系统中更具优越性,为后续脑电信号的特征提取和分类分析提供了良好的基础。  相似文献   

9.
基于JPEG-LS标准的真彩色图像改进无损压缩方法   总被引:2,自引:0,他引:2  
无损压缩由于其保持信息完整性的特点 ,一直是医学图像和其它某些特殊领域图像的首选压缩方案。目前有相当多的无损压缩方法都集中针对于灰度图像 ,而忽略了彩色图像。并且很多算法都偏复杂 ,不利于真正地实时压缩应用。在此 ,我们以真彩色图对压缩对象 ,在JPEG SL标准的基础上对其无损压缩算法进行改进 ,以线性变换和多通道压缩编码的方式进一步消除了图像内部的信息冗余 ,在保留原算法简单性的基础上获得了较其它一些无损压缩技术更好的压缩效果  相似文献   

10.
设计了医学图像无损压缩的Huffman具体算法,采用C 语言进行实现,并对其影响因素进行了研究探讨.结果 表明:Huffman算法在医学图像的压缩中可以取得良好的压缩效果,实现医学图像的无损压缩,并得出了其具体的影响因素.  相似文献   

11.
In this work, a filter bank-based algorithm for electrocardiogram (ECG) signals compression is proposed. The new coder consists of three different stages. In the first one--the subband decomposition stage--we compare the performance of a nearly perfect reconstruction (N-PR) cosine-modulated filter bank with the wavelet packet (WP) technique. Both schemes use the same coding algorithm, thus permitting an effective comparison. The target of the comparison is the quality of the reconstructed signal, which must remain within predetermined accuracy limits. We employ the most widely used quality criterion for the compressed ECG: the percentage root-mean-square difference (PRD). It is complemented by means of the maximum amplitude error (MAX). The tests have been done for the 12 principal cardiac leads, and the amount of compression is evaluated by means of the mean number of bits per sample (MBPS) and the compression ratio (CR). The implementation cost for both the filter bank and the WP technique has also been studied. The results show that the N-PR cosine-modulated filter bank method outperforms the WP technique in both quality and efficiency.  相似文献   

12.
Compression of electrocardiography (ECG) is necessary for efficient storage and transmission of the digitized ECG signals. Discrete wavelet transform (DWT) has recently emerged as a powerful technique for ECG signal compression due to its multi-resolution signal decomposition and locality properties. This paper presents an ECG compressor based on the selection of optimum threshold levels of DWT coefficients in different subbands that achieve maximum data volume reduction while preserving the significant signal morphology features upon reconstruction. First, the ECG is wavelet transformed into m subbands and the wavelet coefficients of each subband are thresholded using an optimal threshold level. Thresholding removes excessively small features and replaces them with zeroes. The threshold levels are defined for each signal so that the bit rate is minimized for a target distortion or, alternatively, the distortion is minimized for a target compression ratio. After thresholding, the resulting significant wavelet coefficients are coded using multi embedded zero tree (MEZW) coding technique. In order to assess the performance of the proposed compressor, records from the MIT-BIH Arrhythmia Database were compressed at different distortion levels, measured by the percentage rms difference (PRD), and compression ratios (CR). The method achieves good CR values with excellent reconstruction quality that compares favourably with various classical and state-of-the-art ECG compressors. Finally, it should be noted that the proposed method is flexible in controlling the quality of the reconstructed signals and the volume of the compressed signals by establishing a target PRD and a target CR a priori, respectively.  相似文献   

13.
基于BW算法的高采样率心电数据无损压缩   总被引:1,自引:0,他引:1  
目前对心电数据压缩的研究主要集中在对低采样率心电数据的压缩,我们提出了一种基于BW(Burrows-Wheeler)算法对高采样率心电数据的无损压缩算法.首先对原始心电数据进行差分变换,将部分16位二进制差值表示为8位,然后对差分结果进行前移编码,使得相同字符集中于某一段区域,最后通过算术编码得到高压缩比.结果表明,该算法不仅适用于高采样率体表心电数据的压缩,而且也适用于心内心电数据的压缩, 平均压缩比分别达到3.547和3.608.同现有的心电无损压缩算法相比,它在压缩效果上获得了较大改进.另外针对高采样率心电数据,使用该算法进行无损压缩也可以得到较好的压缩效果.  相似文献   

14.
利用心电功率谱特征,探索心电数据压缩新方法。用小波分解心电信号为高频与低频分量,对低频分量继续分解达到要求的级数,对高频分量则根据其所在频段的能量,对临床诊断的价值加以取舍。对MIT生理信号数据库心电数据的压缩与还原分析表明,该方法平衡了压缩比与还原精度之间的矛盾,既具有较高的压缩比,又具有较高的还原精度,而且对信号的适应性也明显增强。另外,该压缩方法还具有一定的去噪作用。说明结合心电功率谱特征与小波变换方法压缩心电有其优势。  相似文献   

15.
本研究提出了一种新的心电信号压缩方法,该方法对心电数据进行离散余弦变换(DCT)并对DCT变换的结果进行二级矢量量化。该方法不但继承了矢量量化高压缩比的特点,而且在很大程度上降低了矢量量化所需的码书长度进而也降低了码字搜索的运算复杂度。实验证明,该算法是一种有效可行的心电信号压缩方法。  相似文献   

16.
本研究针对心电数据的压缩问题,提出了一种新的基于小波变换的二维心电(ECG)数据压缩算法。该算法首先将一维原始ECG信号转化为二维序列信号,从而使ECG数据的两种相关性可得到充分地利用;然后对二维ECG序列进行小波变换,并对变换后的系数应用了一种改进的矢量量化(VQ)方法。在改进的VQ方法中,根据小波变换后系数的特点,构造了一种新的树矢量(TV)。利用本算法与已有基于小波变换的压缩算法和其他二维ECG信号的压缩算法,对MIT/BIH数据库中的心律不齐数据进行了对比压缩实验。结果表明:本算法适用于各种波形特征的ECG信号,并且在保证压缩质量的前提下,可以获得较大的压缩比,具有一定的应用价值。  相似文献   

17.
目的 为满足嵌入式移动无线终端传输高采样率心电信号的需要,设计一种实时心电数据压缩算法.方法 根据心电数据自身特点,在嵌入式S3C2440平台上,以Huffman算法、LZ77算法及LZW算法进行心电数据压缩并比较分析,在此基础上设计了一阶差分结合Huffman算法和LZ77算法的混合压缩算法.结果 心电数据的压缩结果显示,该算法压缩比达7.20,平均计算时间392 ms,与普通压缩算法相比具有更高的心电压缩比和更低的时间复杂度.结论 将该压缩算法运用到远程无线监测终端中能满足系统设计的要求.  相似文献   

18.
矢量量化(VectorQuantization)是一种重要的数据编码方法,其关键是码本设计和检索方法。然而,通常的码本聚类生成算法所用的局部信息,不能很好表现信号特征。由Kohonen提出的自组织特征映射(SelfOrganizingFeatureMap,SOFM)具有自组织聚类特性,可直接用于码本设计,并较著名的LBG算法有许多良好特性。本文在简略描述自组织特征映射网络特点后,主要论述一种新改进算法并将其运用于心电信号压缩。从压缩结果来看,SOFM法适用于多种心电波形压缩任务;对于基线波动严重的波形,效果可较好;对规则波形如T100等却不很理想,S波处有失真。  相似文献   

19.
性能优越的心电数据压缩算法,必须具备较快的处理速度、较高的压缩比和较理想的恢复精度,而三者通常是相互矛盾、相互制约的,实际应用中只能取折衷方案.现有的心电数据压缩算法不能在这三方面同时取得理想的效果,只能根据需要满足某一方面的需求.基于模板匹配和改进的快速LADT结合的心电数据压缩算法,吸收了模板匹配和改进的快速LADT算法的优点,并对算法实现的关键技术作了进一步的改进.介绍了模板匹配和改进的快速LADT算法的基本原理,实现步骤和关键技术,并对其应用前景作了预测.  相似文献   

20.
由于心脏活动的有序性和各心电活动周期波形的相似性,各心电活动周期波形的DCT(离散时间余弦变换)分量也具有一定的相似性。根据这一特点,本文提出了在首先使用DCT压缩心电图(ECG)数据的基础上,进一步利用各ECG周期的DCT分量的差值来压缩数据的方法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号