-
avaudioengine - Chuyển đổi AVAudioPCMBuffer sang AVAudioPCMBuffer khác
Tôi đang cố gắng chuyển đổi một AVAudioPCMBuffer đã xác định (44.1khz, 1ch, float32, uninterleaved) sang một AVAudioPCMBuffer khác (16khz, 1ch, int16, uninterleaved) bằng AVA
-
ios - AVAudioPCMBuffer - lỗi bộ nhớ đọc (vào bộ đệm: AVAudioPCMBuffer) (tràn bộ đệm)
Đoạn mã sau hoạt động với các tệp âm thanh có thời lượng ngắn trên tất cả các thiết bị của tôi (iPhone, Apple Watch, trình mô phỏng): let file = try! AVAudioFile(để đọc: url!) let format
-
android — Kết hợp AVAudioPCMBuffer
Tôi đang sử dụng installTap(onBus:bufferSize:format) để ghi âm bằng AVEngine. Điều này tạo ra AVAudioPCMBuffer tích lũy của tôi. Khi tôi ghi âm xong, tôi muốn kết nối chúng
-
ios - Nghe AVAudioPCMBuffer
Tôi đã triển khai phương thức installTap để cung cấp cho tôi một ví dụ về dấu phẩy động của bộ đệm âm thanh. Tôi đã lọc chúng thông qua thư viện C++ DSP của mình. Tôi muốn "gửi" bộ đệm này tới tai nghe/loa. Tôi đã thực thi lại AVAudioPCM từ ví dụ
-
android — Phát các đoạn của AVAudioPCMBuffer
Tôi đang tạo giao diện trình ghi và trình chỉnh sửa đơn giản này cho ứng dụng iOS: Âm thanh được ghi thành các nhóm nổi được sử dụng để tạo dạng sóng. Ghi xong mình copy float data vào AVAudioPCMBuffer để sử dụng với AVAudi
-
ios - Về trích xuất mức áp suất âm thanh từ AVAudioPCMBuffer
Tôi gần như không biết gì về việc xử lý tín hiệu và hiện tôi đang cố gắng triển khai một chức năng trong Swift để kích hoạt sự kiện khi mức áp suất âm thanh tăng lên. (Ví dụ: khi một người hét lên). Tôi đang sử dụng lệnh gọi lại như thế này vào AVAud
-
Swift - từ avaudioPCMbuffer sang mảng
Có thể trích xuất dữ liệu từ bộ đệm vào một mảng không? Tôi đã lưu tệp âm thanh vào bộ đệm và bây giờ muốn trích xuất dữ liệu. Mã này là: nhập UIKit nhập AVFoundation // nhập âm thanh let
-
Swift - Cách nhận âm lượng hiện tại từ đầu vào micrô (AVAudioPCMBuffer)
Tôi đang ghi âm từ micrô và truyền âm thanh đó sang thiết bị khác. Hiện tại, âm thanh này được gửi qua luồng ngay cả khi người dùng không nói. Nhưng tôi nhận thấy rằng nhiều dịch vụ phát trực tuyến không thực sự gửi đầu vào micrô của bạn khi họ phát hiện thấy rất ít tiếng ồn từ micrô. Vì vậy tôi muốn hỏi,
-
AVAudioPCMBuffer được xây dựng theo chương trình, không phát ở chế độ âm thanh nổi
Tôi đang cố gắng điền vào AVAudioPCMBuffer theo chương trình trong Swift để xây dựng máy đếm nhịp. Đây là ứng dụng thực tế đầu tiên tôi cố gắng xây dựng nên đây cũng là ứng dụng âm thanh đầu tiên của tôi. Bây giờ tôi đang cố gắng sử dụng các khuôn khổ và phương pháp khác nhau để
-
Cách dùng AVAudioPCMBuffer phát âm thanh
Tôi không thể phát âm thanh bằng AVAudioPCMBuffer (mặc dù tôi có thể phát âm thanh bằng AVAudioFile). Tôi đã gặp lỗi này. Lỗi:AVAudioBuffer.mm:169: -[AVAudioPCMB
-
android — Chuyển đổi AVAudioPCMBuffer sang NSData
Tôi hiện đang cố gắng chuyển đổi các mẫu âm thanh trong AVAudioPCMBuffer sang NSData - Tôi đã xem câu trả lời được chấp nhận trên SO Post này và cả mã này từ GitHub nhưng dường như có một số AVFAudio
-
Swift - Tạo AVAudioPCMBuffer bằng AVAudioRecorder
Cùng với iOS 10, Apple đã phát hành một khuôn khổ mới để nhận dạng giọng nói. Dữ liệu có thể được chuyển đến khung này bằng cách thêm AVAudioPCMBuffers hoặc cung cấp URL tới m4a. Hiện tại, nhận dạng giọng nói hoạt động bằng cách sử dụng cái trước, nhưng cái này chỉ
-
android — Viết AVAudioPCMBuffer vào AVAudioFile đã nén
Chúng tôi đang phát triển một ứng dụng ghi và giữ lại đầu vào micrô. Việc sử dụng AVAudioRecorder không phải là một tùy chọn vì cần phải xử lý âm thanh theo thời gian thực. AVAudioEngine được sử dụng vì nó cung cấp quyền truy cập ở mức độ thấp vào âm thanh đầu vào
-
Tải pcm vào AVAudioPCMBuffer
Tôi có mã này: func LoadSoundfont(_ pitch : String) { let path: String = Bundle.main.path(forResource:
-
swift — Swift AVAudioEngine AVAudioPCMBuffer sang PowerLevel
Tôi đang thực hiện một dự án tạo một ứng dụng hiển thị mức công suất của micrô. Tôi biết rằng lớp AVAudioRecorder cung cấp công suất trung bình/cực đại nhưng tôi chỉ muốn ghi lại mức công suất của một số băng tần nhất định. Tôi sử dụng lớp AudioUnitEQ để thiết lập
-
AVAudioPlayerNode sử dụng AVAudioPCMBuffer - không phát âm thanh
Tôi đang cố phát âm thanh từ PCMBuffer. Khi tôi chạy mã bên dưới, vì lý do nào đó không có âm thanh nào phát. Tôi không nhận được bất kỳ lỗi nào. let engine = AVAudioEngine() let player =
-
Swift viết Int16 lên AVAudioPCMBuffer
Tôi có một đối tượng dữ liệu trong Swift là một mảng các đối tượng Int16. Vì lý do nào đó, việc sử dụng ".pcmFormatInt16" không hoạt động với định dạng AVAudioPCMBuffer của tôi và không gây ra lỗi âm thanh hoặc bộ nhớ
-
Chuyển đổi CMSampleBuffer thành AVAudioPCMBuffer để có âm thanh thời gian thực
Tôi đang cố đọc giá trị tần số từ CMSampleBuffer được trả về bởi captureOutput của AVCaptureAudioDataOutputSampleBufferDelegate. ý tưởng của tôi là
-
swift 3: Nhận độ dài của AVAudioPCMBuffer dưới dạng TimeInterval?
Tôi đang cố gắng lấy thời lượng của AVAudioPCMBuffer nhưng dường như tôi không thể làm được. Tôi cố gắng làm như sau: func getLength(buffer: AVAudioPCMBuffer) -> TimeIn
-
AVAudioConverter chuyển đổi AVAudioPCMBuffer sang AAC
Tôi đang gặp sự cố với AVAudioConverter. Tôi đang cố gắng chuyển đổi AVAudioPCMBuffers sang AAC. Đây là chức năng tôi đang sử dụng để chuyển đổi, được lấy từ phần "Có gì mới trong Core Audio".
Tôi là một lập trình viên xuất sắc, rất giỏi!